Jump to content

BestmanPi

Administrador
  • Contenido

    6951
  • Ingreso

  • Última visita

Todo lo publicado por BestmanPi

  1. En teoría, el truco de que se reconozca toda la memoria, sí funciona. Yo nunca lo he puesto en práctica pero creo que vale. http://foro.tombraiderfans.es/index.php?showtopic=16543&view=findpost&p=419362 Aquí te dejo el link con el truco
  2. Contestando a Cristina... Sobre lo de que no notas la diferencia en los test, es porque estás pasando test gráficos y no test donde se haga un uso intensivo de la RAM. Sobre el tema de la memoria y los 32 bits, sí es cierto que los sistemas operativos de 32 bits no reconocen más de 4 GB (2 elevado a 32 es igual a 4294967296, que son exactamente 4 GB)... entonces, si el valor teórico son 4 GB, ¿porque no llega a reconocer los 4 GB?. Pues porque hay RAM ocupada por otros dispositivos del PC y se están ocupando direcciones de memoria que se descuentan de la RAM total. En cambio, un sistema operativo de 64 bits, sí reconoce muchisimo más de 4 GB. Por ejemplo, yo tengo 4 GB con Windows Vista de 64 bits y el sistema operativo me dice que tengo 4GB y no me descuenta nada. ¿Porqué el PC de tu hermana no reconoce los 4 GB, a pesar de tener un sistema operativo de 64 bits?. Pues porque el procesador de gráficos, estará utilizando lo que se llama memoria compartida, que no es ni más ni menos que en lugar de poner tanta memoria dedicada solo para gráficos, se aprovecha parte de la memoria RAM para los gráficos y por eso queda menos RAM. Por ejemplo, tu GTX 560 tiene 1 GB para ella sola, independientemente de la RAM que tenga el PC. En la captura sale lo que me dice mi Windows.
  3. Requiem, ¿ATI te da Nvidia? Actualmente Nvidia ha vuelto a recuperar el trono. Sí es cierto que hasta hace poco lo había perdido, pero más que nada es porque se centró demasiado en el tema del PhysX, Cuda y todas esas tecnologías paralelas. Actualmente Nvidia se encuentra con que ha hecho un buen negocio con Intel y en los próximos 5 años Intel le va a dar una buena inyección de capital a Nvidia y eso les va a permitir vender a muy buenos precios. Edito: Lo del Dual Channel no se puede poner con ningún programa, puesto que depende de en que Slot de memoria se pinche la RAM. Si quieres activar el Dual Channel, tienes que abrir la caja del PC y cambiar las memoria de sitio. ¿Donbde hay que colocarlas para tener Dual Channel?. Eso viene especificado en el manual de la placa base. Por otro lado, el Dual channel nunca puede ser un inconveniente, independientemente del tamaño de los módulos RAM, puesto que lo permite es poder acceder a dos módulos de RAM a la vez y eso siempre es bueno.
  4. Puedes comprobar lo del Dual Channel, muy facilmente. Necesitarás descargarte una pequeña aplicación llamada CPU Z ftp://ftp.cpuid.com/cpu-z/cpu-z_1.57-32bits-en.zip No necesita instalación. Descomprimes el archivo en una carpeta y lo ejecutas. En la ventana que te sale, vas a la pestaña Memory y te fijas arriba a la derecha, donde pone Channels# Si pone Dual, como en la captura de pantalla que adjunto, es que tienes activado el Dual channel. En caso de que no lo tengas activado, lo comentas y te digo como se activa. ... y debajo, en DC Mode, tiene que poner Symmetric, como pone en la captura.
  5. Si tienes dos módulos de RAM de 2 GB y son iguales, si tu placa base tiene Dual Channel, puedes utilizarlo. El Core i5 a 2.8 Ghz, dudo que sea inferior al mío, que por cierto, tambien es de 2.8 Ghz. EDITO: Veo que tu placa base tiene Dual Channel. Así que solo tienes que asegurarte de estar usándolo.
  6. Pues yo pensaba que los i5 y los i7 eran todos de por lo menos cuatro núcleos. Así que ya aprendí algo nuevo. Sobre lo de que no te sale la captura de pantalla en el test del RE5 es normal. Para las capturas yo utilizo fraps. En caso conbtrario, como comentas, se ve todo negro. Creo recordar que tambien tuve que actualizar fraps a una versión más nuevo, portque la anterior no iba bien en DirectX 10. Si bien es cierto que al menos en teoría dos núcleos tiran menos que cuatro, tambien es cierto que la memoria DDR 3 es una pasada. Recuerdo que Vi me barría en alguno de esos test y pienso que era por la DDR3. De todos modos, hay un tema en eso de la memoria que no sé como lo tienes configurado... ¿te suena Dual Channel o Triple Channel?. Los módulos de memoria en mi placa base se pueden poner como Dual Channel siempre y cuando se tengan módulos iguales en parejas. Por ejemplo, yo tengo cuatro módulos de RAM de 1GB cada uno. Al tenerlos en dual channel, están emparejados de dos en dos y la CPU puede acceder a dos módulos de memoria a la vez. Tril¡le channel, sería aplicar el mismo concepto a trios de módulos de RAM en lugar de a parejas. En mi caso, mi placa base tiene Dual channel.
  7. Pues, por ejemplo, este http://foro.tombraiderfans.es/index.php?showtopic=22590 o este de la demo del Resident Evil 5 http://foro.tombraiderfans.es/index.php?showtopic=23149 En el caso de hacer el de la demo del RE 5, tienes que desactivar la sincronización vertical en el menú de opciones de la demo. ... ahora, contestando a Vonjose... eso del Dirt2, lo he comentado como algo que me ocurre, pero lo cierto es que no me preocupa mucho. Puede que sí sea cosa de reinstalar el juego, como dices, puesto que antes tenía una gráfica DirectX 10 y ahora es DirectX 11 y a lo mejor cambia algún archivo del juego. De momento, puedo pasar sin jugar a Dirt 2, pero si un día me apetece, ya probaré a reinstalar.
  8. Pues es mejor que el mío. Mi CPU, es de cuatro núcleos, pero es anterior a los i5 e i7, con lo que deduzco que es peor. La RAM que tengo es DDR2 a 1066 Mhz, lo cual ya la hace inferior a la tuya y mi disco duro es de 500 GB, aunque eso no influye en el rendimiento gráfico. De sistema operativo uso Vista de 64 bits. Así que si puedes hacer alguna prueba con la gráfica y colgar los resultados, se agradecería. Así veo cuanto puede mejorar la gráfica con un PC Mejor.
  9. Yo todavía no he perdido la esperanza de que haya un tercer juego. A día de hoy, de vez en cuando entro a la web de Terminal Reality (el desarrollador de BloodRayne) para ver si hay alguna noticia o pista de que puedan estar trabajando en el juego. De momento, el año pasado terminaron de trabajar en GhosBusters y tenían un proyecto, aún desconocido en marcha. Así que nunca perderé la esperanza. Loi curioso es que BloodRayne no tuvo muchos adeptos al principio y los fue ganando con el tiempo. Eso hizo que no fuese muy bollante en ventas, a pesar de ser muy buen juego... bueno, eso y que a Majesco (el distribuidor) no le iban muy bien las cosas, económicamente. Le pasaba como a Eidos o peor. Me estoy alejando del tema, así que auuupa la GTX 560 Ti De momento solo me encuentro con un problema y es que el juego Dirt 2 se me cierra solo casi nada más arrancar, pero supongo que será cosa de drivers. Aún no han sacado versiones nuevas y es posible que el driver actual tenga algún problema de compatibilidad. El resto de juegos me van muy bien. Cuando cambie de PC, voy a dejar esta gráfica porque creo que con un PC mejor todavía puede dar más rendimiento... y aquí si me gustaría ver un poco el rendimiento en tu PC, Cristina. Al ser un PC nuevo, tu GTX 560 tiene que rendir más que la mía.
  10. Bienvenida a la gran familia de los Nvidiosos*. * Nvidiosos: léase los que usamos tarjetas gráficas de Nvidia.
  11. He machacado más el mando con otros juegos. Creo recordar que fue con Borderlans, que llegué a temer por la vida de alguno de los sticks.
  12. Digo lo mismo que Vonjose. El mando de XBOX 360 para PC, es lo mejor para jugar. De hecho, cuando jugaba con teclado y ratón, siempre tenía que reconfigurar alguna tecla. Dsde que uso el mando de Microsoft, no he tenido que reconfigurar nada y se maneja muy bien... además de que pienso que es el más ergonómico que hay, con lo que se evitan molestias y malas posturas en las manos.
  13. Pues lo próximo que me toca es enfrentarme a Stygia. Hace un rato he conseguido el caballo (creo recordar que se llama Ruina) y me he enfrentado al "gusano" gigante. Lo cierto es que los movimientos del caballo están muy logrados.
  14. Para usar las gafas de colores (la imágenes vistas así se llaman anaglifos. En youtube se pueden encontrar anaglifos para ver), no hace falta que el monitor sea 3D. Sirve cualquier monitor. Para usar el sistema de Nvidia, es necesario que el monitor tenga una frecuencia de refresco de al menos 120 Hz, para que cada ojo reciba 60 Hz y no se produzca fatiga visual.
  15. No lo sé, pero supongo que sí. Estrabilizarán la corriente para amortiguar los altibajos que suele haber en algunas zonas.
  16. Ya maté a Tiamat. Hoy he ido mejopr preparado a la pelea. Ya tengo unas cuantas mejoras que supongo que me han facilitado la labor. Por cierto que si se investiga bien, hay bastantes cosillas por ahí escondidas. Ahora me preocupo más de buscar por los rincones que de avanzar.
  17. Acabo de ver en Steam Batman Arkham Asylum por solo 7.5 €. Para quien no lo haya jugado, es muy recomendable.
  18. Sobre la primera duda... Pienso que con una fuente de 500W tienes suficiente patra la GTX 560. Siempre depende de si es una fuente genérica o de marca. A igualdad de vatios de consumo, las fuentes de buena calidad tienen más vatios de salida (son más eficientes). Sobre la segunda pregunta... El aparato en cuestión se le conoce como SAI (Sistema de alimentación ininterrumpida) Ya los hay que son muy baratos. A parte de la calidad, entre unos y otros cambia el tiempo de autonomía y la potencia que dan. Tienen una alarma que avisa de cuando se ha ido la luz para que te de tiempo a guardar lo que se estás haciendo y a apagar el PC tranquilamente. De ese modo, no se producirá un error la próxima vez que lo enciendas. Yo nunca he tenido un SAI, así que no te puedo aconsejar ninguno.
  19. Creo que sí. No estoy muy seguro, pero creo que son compatibles con 3D todas las Nvidia desde la serie Geforce 8xxx. Además, aunque no tengais las gafas de Nvidia, lo podeis probar con gafas de esas que tienen un cristal rojo y uno azul. Yo he probado en 3D, por ejemplo alguno de los Tomb Raider con gafas de ese tipo y el efecto 3D sí que se consigue muy bien. Lo único malo que con las gafas de colores, los colores son malos y aparecen apagados y mezclados, cosa que se soluciona con las gafas 3D de Nvidia, puesto que usan otro sistema mucho mejor, aunque más caro.
  20. Saber si tu gráfica es compatible o no con 3D es muy sencillo, porque cuando instalas los controladores gráficos de Nvidia, tambien se te instalan los controladores 3D. Así que si se te han instaladfo los controladores 3D es que tu gráfica es compatible. En caso contrario, pues no. Por lo demás, como dices, EVGA es un fabricante de gráficas. En el caso concreto de Nvidia y AMD/ATI, todos sus procesadores gráficos son fabricados por TSMC (Taiwan semiconductores). Precisamente, Nvidia es el mejor cliente de este fabricante. Digamos que Nvidia diseña los chips y se los lleva a TSMC para que los construya. Cuando están construidos, Nvidia los prueba en una tarjeta gráfica diseñada tambien por ellos. Esos diseños, se los vende a fabricantes de gráficas. Unos fabricantes lo fabrican y lo venden tal cual Nvidia lo diseñó y otros, añaden mejoras, como es el caso de la Gigabyte que me compré. Es como los cohes de serie y los tuneados. Diugamos que Nvidia vende el diseño del coche de serie a los fabricantes y los fabricantes lo tunean y lo mejoran o lo dfejan tal cual.
  21. Veo que tiernes un pequeño lio con esto de las marcas, así que te lo aclaro. Principalmente hay dos fabricantes de procesadores gráficos, que son Nvidia y AMD/ATI, pero no venden tarjetas gráficas, sino que otros fabricantes, montan tarjetas gráficas siguiendo los diseños de Nvidia y AMD/ATI. Hay fabricantes que para desmarcarse de la competencia, mejoran los diseños de referencia, por ejemplo, Gigabyte, mejoró el disipador y aumentó las frecuencias. Resumiendo, que nunca has tenido una Nvidia, porque Nvidia no vende gráficas. Lo que sí has tenido es una gráfica que montaba procesador de Nvidia.
  22. El invento está curioso. Me recuerda al teclado proyectado que salió hace unos años. Pero, a parte de lo curioso, no lo veo muy práctico. Más que nada, por la poca precisión y lentitud de ese sistema, con respecto al tradicional.
  23. http://www.pccomponentes.com/gigabyte_geforce_gtx_560_ti_oc_1024mb_gddr5.html Esta es la mía. Desde que la compré ya ha bajado. Ahora está a 209 €, lo cual es una ganga para la calidad que tiene. Tiene ún disipador mucho mejor que el de referencia de Nvidia y eso hace que sea muy fresca. Es una gráfica 100% recomendable, creo que para cualquiera.
  24. Pues que te quede claro que Chrome le pega mil vueltas a Firefox. Firefox se hizo famoso por ir contra el monopolio, pero la verdad es que nunca le he visto ventajas como para cambiarse... y mira que en su día, lo probé en distintas ocasiones, con la intención de que me gustase, pero no hubo manera. Es lento y tiene una interfaz menos clara que IE ó Chrome. En cambio, sí entiendo que haya gente que puede preferir chrome, porque es rápido y muy sencillo. Si no me cambié a Chrome, fue, como ya comenté porque echaba en falta ciertas opciones del menú contextual.
  25. Decidí volver a empezar. Es que la única piedra de salud que tenía la había gastado en una pelea anterior, Si lo llego a saber no la gasto, porque creo que a Tiamat, lo he tenido a punto. Pero es desesperante estar venga jugar todo el rato el mismo trozo, sin poder seguir.
×
×
  • Crear nuevo...