jueves, 29 de julio de 2010

Avances tecnológicos, moda y software para ExpoÓptica 2010

La vigésima octava edición de ExpoÓptica, organizada por IFEMA y que se celebrará del 12 al 14 de marzo en Feria de Madrid, acogerá los avances desarrollados por la industria óptica durante los dos últimos años. Equipamiento de alta precisión que permitirá personalizar el diagnóstico de los pacientes, adaptar cualquier lente a las necesidades particulares de los usuarios, las últimas tendencias en moda y actualizaciones de software que permiten una mejor interacción con los clientes son algunas de las novedades que se presentarán en el Salón Internacional de Óptica y Optometría.
En ExpoÓptica, los profesionales del sector verán cumplidos uno de los retos planteados en la industria: garantizar la localización precisa de las patologías visuales. Así, firmas como INDO, Temática Software y Bloss Group acudirán al certamen con sus equipos de última generación.

Las empresas que se dedican a la fabricación de lentes oftálmicas como Óptica Prats, Coopervision, Mark’ennovy e Interlenco, también presentarán sus novedades en la próxima edición de ExpoÓptica.

Como en anteriores ediciones del certamen, el Salón Internacional de Óptica y Optometría albergará las últimas tendencias en moda de las empresas expositoras. La combinación de colores y materiales, tanto en graduados como en gafas de sol, serán dos de los ingredientes para la próxima temporada Primavera/Verano 2010/2011 begin_of_the_skype_highlighting 2010/2011 end_of_the_skype_highlighting.

En este sentido, las firmas presentes aprovecharán la ventana comercial que le proporciona ExpoÓptica 2010 para presentar las nuevas colecciones, tanto en sol como en monturas, para el público infantil y para adultos, con marcas de reconocido prestigio como McLaren, Carolina Herrera, Paco Rabanne, Máximo Dutti, Celine Dion, etc. Y para el público infantil, colecciones de Winnie the Pooh, Princesa y Power Rangers, entre otras.

De la misma forma, ExpoÓptica 2010 acogerá las últimas actualizaciones en software de gestión que permitirán reforzar la interacción de los establecimientos con el cliente y la calidad de su servicio.

sábado, 26 de junio de 2010

Avances sobre KDE 4

La noticia es de hace una semana, la acabo de ver en la web de KDE, y muestra unz par de fotos de lo que han ido avanzando. La noticia original está aquí, aunque yo lo leo por vosotros y hago un resumen de lo que pone y poner las fotos.

Pone un ejemplo de si alguna vez has tenido 10 o más aplicaciones en la barra de tareas, todas a la vez, esperando a que acabe cada una por una (yo 10, 20 y más). Imaginaos: Proceso de impresión, K3b, KAudioCreator, transferencias de archivos en Konqueror, Kopete, KTorrent, mirando el mail en KMail…

Free Image Hosting at www.ImageShack.us

Como podemos ver, en la primera flecha se muestra como tres diálogos se pueden simplificar en sólo unas pequeñas pestañas en una larga (bueno, en este caso no lo es) lista de tareas, dando detalles.

En la segunda flecha, se puede ver más de lo mismo, pero con más detalles, pero aún bastante simplificado de lo que era originalmente.

Esta idea ha salido de un mockup (significan ideas que proponen usuarios para futuras versiones) de Rafael Fernandez Lopez, que desde aquí le doy mis más sinceras felicitaciones por esta magnífica idea.

Sin duda, si esto se llevara a cabo, facilitaría mucho las tareas, daría un aspecto MUY relajado al escritorio y asumiendo que para el usuario que se agobie con un par de ventanas (es un decir, vaya) quede solucionado con esto. Eso sí, nos avisan claramente en el post que sólo es un mockup, y que no representa nada en cuanto a el diseño final de KDE 4.

También nos cuentan que hay un prototipo para hacer estándar las aplicaciones en espera (mejor explicado, cuando cerramos Kopete pero queda en la barra de tareas/tray), que nos ofrecería interoperatibilidad con aplicaciones de GNOME, que sin duda, sería una grata noticia para ambos, todo gracias a DBUS, que es un sistema para ofrecer comunicación entre varias aplicaciones. Aquí la imagen de turno:

Free Image Hosting at www.ImageShack.us

Yo creo que de estas ingeniosas ideas se puede hacer un super-escritorio que merecería una nueva generación para KDE: la cuarta. Realmente estoy ansioso por esperarla.

Podéis comentar, pero porfavor, flames KDE vs. GNOME, si los hay, que no sean subiditos de tono.

jueves, 24 de junio de 2010

Avances de Linux

A poco de comenzar el 2009, aparecen por doquier los balances y análisis del pasado año. Con respecto a lo que ha sucedido con Linux, que no es poco, se han destacado 8 grandes logros e innovaciones en un estudio hecho por Phoronix ( prestigioso portal dedicado a la tecnología y software libre). Aquí les dejamos la lista:


1- KDE 4: la avanzada interfaz gráfica para Linux, ha sufrido una gran renovación e incorporado efectos y características que, según parece, el propio Windows 7 de Microsoft está intentando imitar para tenerlas listas para su lanzamiento.
2-WINE 1.0: luego de 15 años de desarrollo, se presentó la primera versión estable de este programa que permite ejecutar aplicaciones para Windows dentro de Linux. Un logro impresionante.
3-Plugins Java y Adobe Flash para Linux 64bits: estos plugins son fundamentales para la navegación web (permiten ejecutar programas y animaciones en los exploradores web) y adaptados a la tecnología de 64bits, ayudarán a que se aproveche la potencia de los procesadores de 64bits tanto de AMD como de Intel mediante la instalación de Linux en esa plataforma.
4-GEM (Graphics Execution Manager): aunque muy novedoso aún, promete mejorar sustancialmente la forma en que se gestiona el sistema gráfico de los PC.
5-Drivers de Código Abierto: sin duda una de las mejores noticias, ya que grandes marcas como AMD (dueña también de ATI), VIA y otras importantes fabricantes de procesadores, placas y tarjetas de video, han decidido colaborar definitivamente con Linux creando controladores para sus dispositivos que pueden ser modificados y mejorados libremente. La única compañía que se resiste, por ahora, a liberar sus drivers es NVidia, aunque sí permite descargar y utilizar gratuitamente sus controladores para Linux, pero no se puede conocer su código.
6-NetworkManager 0.7: excelente mejora para la configuración de redes en Linux, pudiendo ahora acceder de forma casi automática a redes 3G (como ofrecen las compañías de celulares).
7-Gimp 2.6: la nueva versión del famoso programa libre de edición gráfica (el más directo competidor de Adobe Photoshop) confirma su continuo avance y crecimiento.
8-Virtual Box 2: el software gratuito de virtualización (permite correr otros sistemas operativos dentro de una ventana como si estuvieran en otra computadora) agrega cada vez más características, soportando ahora la aceleración 3D en las tarjetas de video.

Sin duda, hay muchísimos otros avances que merecerían estar en la lista, a nuestro juicio por ejemplo la aparición de computadoras de Escritorio y Notebooks con Linux pre instalado (de fábrica), o la aparición del formato ext4 para unidades de disco, etc...
En definitiva, Linux y el software libre crecen de forma constante y segura. Veremos que nos depara este 2009

miércoles, 23 de junio de 2010

Linux para teléfonos móvil

Linux evoluciona hacia la telefonía móvil

Según un artículo publicado ayer por la BBC, está en marcha el desarrollo de una versión del sistema operativo Ubuntu para dispositivos y teléfonos móviles con acceso a Internet. El desarrollo lo realizarán miembros de la comunidad Ubuntu, junto con personal de Intel. El proyecto Ubuntu Mobile and Embedded pretende realizar el lanzamiento inicial de la plataforma de código abierto en octubre del 2007.

Según el director de tecnología de Ubuntu, Matt Zimmerman, son los nuevos dispositivos portátiles –móviles, PDAs, tablet PCs, etc.– con acceso a Internet los que plantean nuevas demandas de software de código abierto, con interfaces gráficas innovadoras y una mejor recepción y gestión energética. De hecho, algunas empresas, como Nokia, ya están utilizando tecnologías open source en algunos de sus productos.
Ubuntu, que ya es popular en portátiles y ordenadores de sobremesa, está basado en Linux y, al contrario que Microsoft, que obtiene dinero con las licencias y el uso de sus productos, el código de Linux es gratuito y libre. Por ello, cualquiera puede modificarlo o desarrollar aplicaciones para él, dando lugar a distintos sistemas operativos o distribuciones, todos ellos basados en Linux.

El acuerdo con Intel para el desarrollo de este sistema operativo para móviles es tan solo uno de los que se han firmado con importantes empresas de tecnología de todo el mundo. En abril de este año, por ejemplo, Ubuntu anunció un acuerdo con Dell, el segundo fabricante de PCs del mundo, para ofrecer algunos de sus ordenadores con el sistema operativo Ubuntu preinstalado.

Según Zimmerman: "Intel está realizando importantes aportaciones de tecnología, personal y experiencia al proyecto". El CEO de Intel, Pul Otellini, ha exhibido recientemente un prototipo de la plataforma para móviles de Ubuntu con dicho sistema.
Intel, que también desea un trozo del pastel del creciente mercado para dispositivos móviles con acceso a Internet, ha respaldado ya anteriormente otro proyecto open source conocido como Gnome Mobile & Embedded Initiative (GMAE), para el desarrollo de aplicaciones para este tipo de dispositivos.

La empresa ha anunciado también sus planes de fabricar un diminuto chip de bajo consumo energético diseñado específicamente para ordenadores portátiles y dispositivos móviles. Según fuentes de Intel, este chip, llamado Silverthorn, tendrá una séptima parte del tamaño de los procesadores convencionales y consumirá tan solo el 10% de la energía requerida por estos.

La nueva plataforma Ubuntu maximizará también la eficacia energética ofreciendo una interfaz gráfica diseñada específicamente para la pequeña pantalla.
La versión final está prevista para octubre de este año.

Latinoamérica: avances y retrocesos del Software Libre

¿Qué países están más interesados en el Software Libre en América Latina? Desde un punto de vista político, deberíamos hablar de Venezuela, que plantea una migración total a Software Libre (GNU/Linux y amigos), o de Brasil, Chile, Argentina, aunque en mucho menor grado. Cuba sería un gran ejemplo si tenemos en cuenta el Caribe en nuestro recuento mental a esta altura del año.

Pero este artículo trata sobre otra cosa (un tanto más trivial): sobre el sitio que todos los que usan GNU/Linux han visitado alguna vez, el sitio más famoso del mundo en cuanto a distribuciones de software libre: Distrowatch.


Hay que reconocerlo: por más que la forma en que Distrowatch genera el ranking de distribuciones es cuestionable, por experiencia personal sé que cuando Musix (distribución que co-dirijo junto con Gilberto Borges) sale en la primer plana de distrowatch las visitas al sitio se multiplican por miles y miles, alcanzando 6000 visitas en un día... entonces es obvio que Distrowatch es un portal Web muy visitado, por lo cual sirve como termómetro para medir varias cuestiones que hacen al mundo informático libre.

Recientemente apareció un informe más que interesante en Distrowatch sobre los ingresos a su Web desde diferentes países de Latinoamérica durante 2007.

Las estadísticas muestran además el crecimiento o decrecimiento comparando los primeros 7 meses del año 2006 con estos meses que pasaron del 2007, y Brasil gana por lejos.

Veamos la lista para lo que va del 2007:

1. Brasil (268.821)
2. México (114.682)
3. Argentina (100.836)
4. Venezuela (37.878)
5. Chile (37.439)
6. Puerto Rico (27.819)
7. Colombia (26.158)
8. Perú (15.569)
9. Guatemala (11.887)
10. Uruguay (11.790)
11. República Dominicana (11.734)
12. Costa Rica (9.912)
13. El Salvador (7.233)
14. Ecuador (7.158)
15. Panamá (6.718)

De año a año, Brasil (que por otro lado es el tercer mercado mundial informático) creció un 50.8% en materia de visitantes al sitio, México un 24.1%, Argentina un 18.7%, Venezuela un 26.5% y Chile un 28.6%.

Es claro que las estadísticas parecen tener relación con las políticas estatales de los diferentes países: no sorprende el alto crecimiento de Venezuela y Brasil, dado que en esos países la migración hacia software libre es una realidad.

También hay que destacar lo lejos que están los primeros 3 puestos del 4to puesto: Brasil, México y Argentina, y a su vez lo lejos que está Brasil del segundo puesto, siendo que sus 268.821 visitas representan más del doble que las visitas obtenidas desde México, con 114.682. También es notable el retroceso de Costa Rica en un 35%.

En cuanto al ranking de distribuciones GNU/Linux, la distro brasileña Kurumin está en este momento en el puesto Nº 100, y de las argentinas la única presente es Musix, en el puesto Nº 51. (Si alguien conoce otras distros latinoamericanas dentro de los primeros 100 lugares, por favor, informar).

martes, 15 de junio de 2010

Generador de Movimientos

La forma inicial de programar un generador de movimientos fue el generar mediante fórmulas matemáticas los movimientos legales de cada pieza sobre el tablero, obteniendo todas las posibilidades con tal de entregárselas como una lista al software de búsqueda. Esta propuesta fue mencionada por vez primera en el paper de Shannon [68] y se aplicó a prácticamente todos los programas de la época.

La idea inicial fue el que el programa generara sólo los mejores movimientos con tal de reducir drásticamente el árbol de variantes (estrategia "B", según la nomenclatura dada por Shannon) pero los resultados distaron de ser positivos puesto que el problema principal relacionado con este proceso fue que en las búsquedas en profundidad esta forma de generar los movimientos tomaba un tiempo excesivo, lo cual hacía muy lento el proceso global, motivo por el cual se buscaron otras formas de programar la generación de movidas en base a operaciones que la computadora pudiese realizar más rápidamente.

Sólo hasta principios de 1970 (gracias a la presencia de hardware y ambientes de desarrollo de mayor capacidad) se utilizó la técnica de los mapas de bits (bit-boards)la cual significó un gran avance en este proceso del juego de la máquina dado que se redujo la complejidad de operaciones a aquellas que son básicas para la máquina. A pesar de este avance, era clara la necesidad de implementar fuera del software esta función del programa, dado que la necesidad de hacer búsquedas más rápidas y profundas se basaba en un generador de alta velocidad, cosa que era muy difícil lograr a nivel de hardware.

Las mejoras en esta función del programa vinieron principalmente del lado del desarrollo de hardware específico para la generación de movimientos. En 1977 el programa "Belle" fue el primero en utilizar circuitos digitales para la generación de movimientos logrando aumentar su velocidad de búsqueda de 200 a 160.000 posiciones por segundo. El generador utilizado en Belle sirvió como punto de partida para máquinas más poderosas. El computador que derrotó a Kasparov en 1997, DeepBlue, tenía 30 procesadores IBM RS-6000 SP acoplados a 480 chips. Esta máquina fue capaz de lograr velocidades computacionales de 200 millones de posiciones por segundo.

Las característica principal de estos generadores a nivel de Hardware es el poder caracterizar a las casillas de origen y destino mediante transmisores y receptores respectivamente, para luego generar mediante un árbol de prioridades los movimientos ordenados de acuerdo a criterios de capturas, jaques, etc. [38]. La principal ventaja entre el generador de movimientos de DeepBlue y BELLE es que el primero solucionó el problema de generar en primer orden los movimientos de jaque.

En la actualidad la utilización de mapas de bits es prácticamente universal en todos los programas de ajedrez. Las mejoras se ven principalmente en los tipos de mapas generados de acuerdo al tipo de movimientos buscados (reglas de mapas de bits). El principal desarrollo en este tema es a nivel de hardware en donde los avances se han visto en el orden de jugadas entregado en la generación de los movimientos. En el último año se han desarrollado también tarjetas de hardware específicas para implementación en computadoras personales (Field Programable Gate Arrays) las cuales han sido utilizadas en forma experimental

Generador de Movimientos

La forma inicial de programar un generador de movimientos fue el generar mediante fórmulas matemáticas los movimientos legales de cada pieza sobre el tablero, obteniendo todas las posibilidades con tal de entregárselas como una lista al software de búsqueda. Esta propuesta fue mencionada por vez primera en el paper de Shannon [68] y se aplicó a prácticamente todos los programas de la época.

La idea inicial fue el que el programa generara sólo los mejores movimientos con tal de reducir drásticamente el árbol de variantes (estrategia "B", según la nomenclatura dada por Shannon) pero los resultados distaron de ser positivos puesto que el problema principal relacionado con este proceso fue que en las búsquedas en profundidad esta forma de generar los movimientos tomaba un tiempo excesivo, lo cual hacía muy lento el proceso global, motivo por el cual se buscaron otras formas de programar la generación de movidas en base a operaciones que la computadora pudiese realizar más rápidamente.

Sólo hasta principios de 1970 (gracias a la presencia de hardware y ambientes de desarrollo de mayor capacidad) se utilizó la técnica de los mapas de bits (bit-boards)la cual significó un gran avance en este proceso del juego de la máquina dado que se redujo la complejidad de operaciones a aquellas que son básicas para la máquina. A pesar de este avance, era clara la necesidad de implementar fuera del software esta función del programa, dado que la necesidad de hacer búsquedas más rápidas y profundas se basaba en un generador de alta velocidad, cosa que era muy difícil lograr a nivel de hardware.

Las mejoras en esta función del programa vinieron principalmente del lado del desarrollo de hardware específico para la generación de movimientos. En 1977 el programa "Belle" fue el primero en utilizar circuitos digitales para la generación de movimientos logrando aumentar su velocidad de búsqueda de 200 a 160.000 posiciones por segundo. El generador utilizado en Belle sirvió como punto de partida para máquinas más poderosas. El computador que derrotó a Kasparov en 1997, DeepBlue, tenía 30 procesadores IBM RS-6000 SP acoplados a 480 chips. Esta máquina fue capaz de lograr velocidades computacionales de 200 millones de posiciones por segundo.

Las característica principal de estos generadores a nivel de Hardware es el poder caracterizar a las casillas de origen y destino mediante transmisores y receptores respectivamente, para luego generar mediante un árbol de prioridades los movimientos ordenados de acuerdo a criterios de capturas, jaques, etc. [38]. La principal ventaja entre el generador de movimientos de DeepBlue y BELLE es que el primero solucionó el problema de generar en primer orden los movimientos de jaque.

En la actualidad la utilización de mapas de bits es prácticamente universal en todos los programas de ajedrez. Las mejoras se ven principalmente en los tipos de mapas generados de acuerdo al tipo de movimientos buscados (reglas de mapas de bits). El principal desarrollo en este tema es a nivel de hardware en donde los avances se han visto en el orden de jugadas entregado en la generación de los movimientos. En el último año se han desarrollado también tarjetas de hardware específicas para implementación en computadoras personales (Field Programable Gate Arrays) las cuales han sido utilizadas en forma experimental

Sistemas Multiprocesadores

A inicios de 1981 los sistemas de multiprocesadores fueron introducidos en máquinas que jugaban al ajedrez. El objetivo inicial era lograr un aumento de la velocidad de proceso en un factor de 81#81 veces con 81#81 procesadores. El problema principal de este tipo de desarrollo fue el cómo dividir el árbol de búsqueda de variantes con tal de mantener a todos los procesadores ocupados en todo el tiempo de búsqueda evitando además búsqueda redundante.

Otro problema era la realización de debugging en este tipo de programas. Los procesadores funcionan en forma asíncrona y eventos que ocurren primero en un procesador y luego en otro pueden suceder en otro orden en otra simulación.

El programa OSTRICH fue el primero en participar en una competencia oficial de computadoras utilizando esta tecnología. Cinco computadoras serie Data General 16-bit Nova estaban conectadas mediante un paquete de comunicación de alta velocidad. En años subsiguientes 8 computadoras DG fueron utilizadas logrando un incremento de la velocidad de cálculo en un orden 5. Otros programas famosos que utilizaron multiproceso fueron CRAYBLITZ (1983 y 1984, procesador CRAY X-MP, 2 y 4 procesadores), CHESS CHALLENGER (1986, 20 microprocesadores 8086) y Deep Thought (1989, 3 procesadores de tecnología SUN y VLSI). DeepBlue para su match contra Kasparov utilizó un total de 2 frames RS6000 SP albergando 15 computadoras RS/6000 cada uno. Cada nodo contenía dos circuitos de ajedrez con 8 procesadores cada uno, lo que otorga en total 8x2x15x2 = 480 procesadores en el sistema completo.

Otra aplicación interesante de las máquinas multiprocesadores fue realizada por Thompson y Stiller a mediados de los 70, quienes desarrollaron mediante este tipo de hardware las bases de datos de finales para computadoras de ajedrez [71]. El procedimiento de sincronización y búsqueda con multiprocesadores se encuentra bastante detallado en [14]

jueves, 10 de junio de 2010

Audio y tinta digital:

Imagina que estás en una reunión, tomando algunos apuntes de la conversación en una aplicación que captura tu letra manuscrita, bocetos, y garabatos, como un "digital ink" (o tinta digital) y adjunta dichas notas a tu asistente electrónico. Luego, mientras revisas tu agenda, con solo presionar un botón puedes llamar a las notas, y cliquear sobre cualquier parte del texto para oir una reproducción grabada de la charla. La tinta digital junto con las grabaciones de audio ya existen. Lo único por lo que hay que esperar es que alguien las incluya dentro de tu agenda electrónica para que puedan utilizarse.

--------------------------------------------------------------------------------

PCs seran mas faciles de utilizar
El nuevo mundo.... Puede la nueva generación de dispositivos especiales asegurar que las PCs serán más fáciles de utilizar? Quizas si. La mayoría de las aplicaciones especiales para Windows lucen hoy en día una serie de ítems en sus menús, con varios botones o barras de herramientas, dificultando el desarrollo de algunas tareas para un usuario inexperto. Si la misma generación de ingenieros obsesionados, quienes construyeron las computadoras actuales diseñan las computadoras de la próxima generación, es posible que los controles escasos causen una mayor sobrecarga de información de la que tenemos actualmente. Lo destacable, es que los diseñadores de los nuevos productos necesitan focalizarse en los clientes y en sus necesidades. Algunos afirman que "la revolución de la información no está basada en la tecnología, sino en la manera en que la gente habla con otras personas, osea en el lenguaje".

--------------------------------------------------------------------------------

Las computadoras del 2010
serán mucho más atractivas de lo que son las actuales, estarán en los bolsillos, en los relojes, y en nuestros anteojos. Independientemente de si se usa Windows 2010, Linux, o algún sistema operativo que aún se está desarrollando, una cosa es completamente segura: utilizarlos será mucho mas sencillo y útil

Olor Por Internet

Ya es posible el olor por Internet Las tecnologías que permiten la difusión de olor a través de Internet ya son algo real, aunque existen pocas empresas que las fabriquen, estas apuestan por ofrecer servicios tangibles, es decir, que el internauta reciba a través de su computadora una sens Las tecnologías que permiten la difusión de olor a través de Internet ya son algo real, aunque existen pocas empresas que las fabriquen. Estos dispositivos son muy adecuados para el sector de la perfumería, aunque su desarrollo se ha extendido a las imágenes, el correo electrónico, y otros dispositivos que son tanto la computadora personal como el teléfono móvil. Hay empresas que, incluso, han utilizado esta tecnología en el campo médico para detectar enfermedades mentales. En los negocios que se están creando en torno a Internet, hay empresas que apuestan por ofrecer servicios tangibles, es decir, que el internauta reciba a través de su computadora una sensación real más allá de la vista. Un ejemplo de ello son las compañías que están desarrollando una tecnología que permitirá transmitir olor a través de la Red. Las empresas pioneras de la investigación son la californiana DigiScents, TriSenx, de Georgia, AromaJet, de Texas y SenseIt Technologies de Israel, y sus dispositivos ya pueden adquirirse. Su funcionamiento se basa en dos aparatos principales, un sintetizador de olor, que es capaz de recoger la fragancia y transformarla en una señal digital. Ésta es recogida por un receptor que, al igual que una impresora, reproduce el olor original. Las personas que deseen percibir los olores de los sitios visitados podrán hacerlo conectando el "sintetizador de olores" a su computadora. En vez de tinta, este dispositivo estará cargado con aceites o esencias primarias, capaces de reproducir millones de fragancias diferentes. Fusionaron cine con olor Todas las empresas anteriormente citadas tienen ya sus propios aparatos, aunque la más destacada es DigiScents. Esta firma es creadora de la denominada "Tecnología aromática digital" iSmell con una serie de aplicaciones que permiten incorporar olor a una película, un correo electrónico o a una tienda virtual. Estas herramientas ya están disponibles en el mercado. La empresa fue creada en 1999 por los norteamericanos Bellensons y Smith. En un principio, estas tecnologías se pensaron para la adecuación del sector de la perfumería en Internet, pero las empresas están desarrollando otras posibilidades. Por ejemplo, los creadores de iSmell fusionaron las imágenes de la película "El Mago de Oz" con olores. Ya no sólo es posible ver la imagen sino, también, es posible oler los cedros del bosque. Esta no es la primera vez que se piensa en desprender olores de acuerdo con lo que se ve. A finales de la década de los 50, se experimentó este estudio con los sistemas como Smell-o-Vision y Aromarama, que consistían en colocar los respectivos olores de cada película en unas pequeñas cajitas situadas debajo de las butacas de cada sala de cine, para luego sacarlas en el momento adecuado. De esta manera la sala quedaba invadida por los olores que desprendían las imágenes.

miércoles, 9 de junio de 2010

Procesadores de mayor velocidad

La velocidad de unidades de procesamiento se ha incrementado dramáticamente debido principalmente a la evolución de la tecnología de semiconductores. Las computadoras han progresado desde ejecutar aproximadamente 10.000 instrucciones por segundo (en la época de los primeros programas) a aproximadamente 1.000.000.000 en la actualidad. El aumento de velocidad ha sido del orden de magnitud de 100.000 veces. Imaginemos comparativamente si la velocidad de transporte hubiese aumentado en esa magnitud durante el mismo periodo de tiempo. Los aviones volarían a 100.000.000 millas por hora; un viaje al sol tomaría cerca de 1 hora de vuelo y un viaje a la estrella más cercana, Alpha Centauri, la cual está a 4,5 años luz de distancia, tomaría cerca de sólo 70 años.

En los años venideros puede esperarse un continuo crecimiento en la velocidad de los procesadores siendo razonable esperar que en los próximos 10 años el incremento será nuevamente cercano a las 100 veces. Ya a inicios del año 2000 las computadoras son 10.000.000 de veces más rápidas que las utilizadas en los primeros programas de ajedrez. Un viaje a Alpha Centauri tomaría ahora menos de 1 año!. Cada incremento en 6 veces la velocidad de la máquina le otorga la posibilidad de realizar una búsqueda en aproximadamente 1 nivel extra de profundidad. Un incremento de 100 veces otorga aproximadamente 2,5 niveles extras de profundidad. Con DEEP THOUGHT realizando búsquedas en una profundidad cercana a los 9 o 10 niveles en el año 1989 no fue sorpresa el hecho de que DeepBlue superara el nivel de profundidad de 12 movimientos en 1997.

El efecto del incremento en la velocidad del hardware en la performance de los programas de ajedrez ha sido estudiado durante varios años. La historia ha demostrado que los ratings Elo de las máquinas han aumentado cerca de 200 puntos por cada nivel adicional de búsqueda logrado. Esto se muestra en la tabla [*], donde las profundidades de búsqueda, años y ratings han sido levemente redondeados con tal de demostrar el efecto de los "200 puntos". Lo que la tabla no muestra es que muchas otras mejoras han sido realizadas a los programas con tal de lograr búsquedas con mayor profundidad, y que correr un programa en una máquina 6 veces más veloz no aumenta directamente la fuerza del programa en 200 puntos de rating Elo.

A fines de los 70, Thompson hizo jugar a varias versiones de BELLE con tal de medir la performance como función sólo de la velocidad con tal de medir los efectos de otras mejoras. El midió la performance como función de la profundidad de búsqueda, pero velocidad y profundidad son parámetros íntimamente relacionados. En sus experimentos, Thompson varió la profundidad de búsqueda desde 3 a 9 niveles. Sus resultados demostraron que para niveles de rating entre 1400 y 2000 existían 200 puntos de diferencia por cada nivel extra de profundidad. Sin embargo, para ratings por sobre los 2000 puntos y con búsquedas sobre los 7 movimientos, existía un decremento en los 200 puntos teóricos de diferencia (ver tabla [*]). Un estudio posterior de Newborn, el cual consideró búsquedas entre 3 y 13 movimientos llegó a la misma observación, pero adicionalmente demostró que los ratings incrementan a medida que la búsqueda también aumenta.

martes, 8 de junio de 2010

Sistemas Multiprocesadores

A inicios de 1981 los sistemas de multiprocesadores fueron introducidos en máquinas que jugaban al ajedrez. El objetivo inicial era lograr un aumento de la velocidad de proceso en un factor de 81#81 veces con 81#81 procesadores. El problema principal de este tipo de desarrollo fue el cómo dividir el árbol de búsqueda de variantes con tal de mantener a todos los procesadores ocupados en todo el tiempo de búsqueda evitando además búsqueda redundante.

Otro problema era la realización de debugging en este tipo de programas. Los procesadores funcionan en forma asíncrona y eventos que ocurren primero en un procesador y luego en otro pueden suceder en otro orden en otra simulación.

El programa OSTRICH fue el primero en participar en una competencia oficial de computadoras utilizando esta tecnología. Cinco computadoras serie Data General 16-bit Nova estaban conectadas mediante un paquete de comunicación de alta velocidad. En años subsiguientes 8 computadoras DG fueron utilizadas logrando un incremento de la velocidad de cálculo en un orden 5. Otros programas famosos que utilizaron multiproceso fueron CRAYBLITZ (1983 y 1984, procesador CRAY X-MP, 2 y 4 procesadores), CHESS CHALLENGER (1986, 20 microprocesadores 8086) y Deep Thought (1989, 3 procesadores de tecnología SUN y VLSI). DeepBlue para su match contra Kasparov utilizó un total de 2 frames RS6000 SP albergando 15 computadoras RS/6000 cada uno. Cada nodo contenía dos circuitos de ajedrez con 8 procesadores cada uno, lo que otorga en total 8x2x15x2 = 480 procesadores en el sistema completo.

Otra aplicación interesante de las máquinas multiprocesadores fue realizada por Thompson y Stiller a mediados de los 70, quienes desarrollaron mediante este tipo de hardware las bases de datos de finales para computadoras de ajedrez [71]. El procedimiento de sincronización y búsqueda con multiprocesadores se encuentra bastante detallado en [14]

Sistemas Multiprocesadores

A inicios de 1981 los sistemas de multiprocesadores fueron introducidos en máquinas que jugaban al ajedrez. El objetivo inicial era lograr un aumento de la velocidad de proceso en un factor de 81#81 veces con 81#81 procesadores. El problema principal de este tipo de desarrollo fue el cómo dividir el árbol de búsqueda de variantes con tal de mantener a todos los procesadores ocupados en todo el tiempo de búsqueda evitando además búsqueda redundante.

Otro problema era la realización de debugging en este tipo de programas. Los procesadores funcionan en forma asíncrona y eventos que ocurren primero en un procesador y luego en otro pueden suceder en otro orden en otra simulación.

El programa OSTRICH fue el primero en participar en una competencia oficial de computadoras utilizando esta tecnología. Cinco computadoras serie Data General 16-bit Nova estaban conectadas mediante un paquete de comunicación de alta velocidad. En años subsiguientes 8 computadoras DG fueron utilizadas logrando un incremento de la velocidad de cálculo en un orden 5. Otros programas famosos que utilizaron multiproceso fueron CRAYBLITZ (1983 y 1984, procesador CRAY X-MP, 2 y 4 procesadores), CHESS CHALLENGER (1986, 20 microprocesadores 8086) y Deep Thought (1989, 3 procesadores de tecnología SUN y VLSI). DeepBlue para su match contra Kasparov utilizó un total de 2 frames RS6000 SP albergando 15 computadoras RS/6000 cada uno. Cada nodo contenía dos circuitos de ajedrez con 8 procesadores cada uno, lo que otorga en total 8x2x15x2 = 480 procesadores en el sistema completo.

Otra aplicación interesante de las máquinas multiprocesadores fue realizada por Thompson y Stiller a mediados de los 70, quienes desarrollaron mediante este tipo de hardware las bases de datos de finales para computadoras de ajedrez [71]. El procedimiento de sincronización y búsqueda con multiprocesadores se encuentra bastante detallado en [14]

Nuevo robot ayuda a los autistas a relacionarse


Bandit, el nuevo robot que intenta relacionarse con los autistas, fue creado en la Universidad de California del Sur con el fin de crear interacción en la comunicación. Este aparato intenta ser el mediador entra la persona con problemas para que pueda expresar lo que siente y lo que piensa.

Los autistas, que se encuentran ajenos a nuestro mundo, son personas que se encuentra imposibilitadas de hablar con las demás personas ya que su lenguaje es inentendible. Bandit posee una cámara en cada ojo e intenta copiar las emociones y movimientos humanos con el fin de mostrarse amigable con el autista. Cuando el robot recibe una respuesta por parte de la persona, un individuo que se encuentra en otro sitio de la habitación habla mediante un micrófono simulando una respuesta.

Mientras este tipo de creaciones sirvan para ayudar a la humanidad serán totalmente bienvenidos. Este tipo de productos tendrían que diseñarse con más frecuencia ya que podrían constituir un gran avance para los hombres.

jueves, 3 de junio de 2010

Capacidad de Memoria

Memorias de mayor capacidad son el resultado de la rápida evolución en tecnología de semiconductores. Los primeros programas de ajedrez corrían en máquinas que utilizaban memorias de base magnética. A inicios de 1970 aparecen las memorias realizadas en base a semiconductores utilizadas en la serie de computadoras IBM 370. Así como la velocidad de los computadores se incrementó en un factor de aproximadamente 100.000, la capacidad de memoria creció en una proporción similar. Este hecho es particularmente importante en programas que utilizan tablas de transposición. A medida que aumenta la velocidad de la computadora memorias de capacidad proporcionalmente mayor son necesarias para mantener la cantidad extra de posiciones que son buscadas.

Así como se espera tener mayores incrementos en la capacidad de procesadores en los próximos años, no es un abuso decir que la capacidad de memoria continuará creciendo de manera impresionante. Memorias de mayor capacidad podrán ser utilizadas por programas con tablas de hash de mayor envergadura, las cuales mantendrán la información en forma permanente.

domingo, 30 de mayo de 2010

Windows 7

Windows 7 es la versión más reciente de Microsoft Windows, línea de sistemas operativos producida por Microsoft Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas, equipos portátiles, "tablet PC", "netbooks" y equipos "media center".[2] El desarrollo de Windows 7 se completó el 22 de julio de 2009, siendo entonces confirmada su fecha de venta oficial para el 22 de octubre de 2009 junto a su equivalente para servidores Windows Server 2008 R2.[3]

A diferencia del gran salto arquitectónico y de características que sufrió su antecesor Windows Vista con respecto a Windows XP, Windows 7 fue concebido como una actualización incremental y focalizada de Vista y su núcleo NT 6.0, lo que permitió el mantener cierto grado de compatibilidad con aplicaciones y hardware en los que éste ya era compatible.[4] Sin embargo, entre las metas de desarrollo para Windows 7 se dio importancia en mejorar su interfaz para volverla más accesible al usuario e incluir nuevas características que permitieran hacer tareas de una manera más fácil y rápida, al mismo tiempo en que se realizarían esfuerzos para lograr un sistema más ligero, estable y rápido.[5]

Diversas presentaciones dadas por la compañía en el 2008 se enfocaron en demostrar capacidades multitáctiles, una interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas fácil de usar denominado Grupo en el Hogar,[6] además de grandes mejoras en el rendimiento general del equipo.

Windows xp

Windows XP (cuyo nombre en clave inicial fue Whistler) es una versión de Microsoft Windows, línea de sistemas operativos desarrollado por Microsoft. Lanzado al mercado el 25 de octubre de 2001, actualmente es el sistema operativo más utilizado del planeta (con una cuota de mercado del 58,4%) y se considera que existen más de 400 millones de copias funcionando.[3] Las letras "XP" provienen de la palabra eXPeriencia (eXPerience en inglés).

Dispone de versiones para varios entornos informáticos, incluyendo PCs domésticos o de negocios, equipos portátiles, "netbooks", "tablet PC" y "media center". Sucesor de Windows 2000 junto con Windows ME, y antecesor de Windows Vista, es el primer sistema operativo de Microsoft orientado al consumidor que se construye con un núcleo y arquitectura de Windows NT disponible en versiones para plataformas de 32 y 64 bits.

A diferencia de versiones anteriores de Windows, al estar basado en la arquitectura de Windows NT proveniente del código de Windows 2000, presenta mejoras en la estabilidad y el rendimiento. Tiene una interfaz gráfica de usuario (GUI) perceptiblemente reajustada (denominada Luna), la cual incluye características rediseñadas, algunas de las cuales se asemejan ligeramente a otras GUI de otros sistemas operativos, cambio promovido para un uso más fácil que en las versiones anteriores. Se introdujeron nuevas capacidades de gestión de software para evitar el "DLL Hell" (infierno de las DLLs) que plagó las viejas versiones. Es también la primera versión de Windows que utiliza la activación del producto para reducir la piratería del software, una restricción que no sentó bien a algunos usuarios. Ha sido también criticado por las vulnerabilidades de seguridad, integración de Internet Explorer, la inclusión del reproductor Windows Media Player y aspectos de su interfaz.

martes, 25 de mayo de 2010

WINDOWS VISTA

Windows Vista es una versión de Microsoft Windows, línea de sistemas operativos desarrollada por Microsoft. Esta versión se enfoca para ser utilizada en equipos de escritorio en hogares y oficinas, equipos portátiles, "tablet PC" y equipos "media center".

El proceso de desarrollo terminó el 8 de noviembre de 2006 y en los siguientes tres meses fue entregado a los fabricantes de hardware y software, clientes de negocios y canales de distribución. El 30 de enero de 2007 fue lanzado mundialmente y fue puesto a disposición para ser comprado y descargado desde el sitio web de Microsoft.

La aparición de Windows Vista viene más de 5 años después de la introducción de su predecesor, Windows XP, es decir el tiempo más largo entre dos versiones consecutivas de Microsoft Windows. La campaña de lanzamiento fue incluso más costosa que la de Windows 95, ocurrido el 25 de agosto de 1995, debido a que esta incluyó además otros productos como Microsoft Office 2007 y Exchange Server 2007.[cita requerida] Actualmente Windows Vista ya tiene un sucesor, llamado Windows 7.

DISELLO
Microsoft comenzó a trabajar en los planes de desarrollo de Windows "Longhorn" en 2001, después de la introducción de Windows XP. Inicialmente estaba previsto para ser lanzado a finales de 2003 como un paso menor entre Windows XP (nombre en código "Whistler") y "Blackcomb" (ahora conocido como Windows 7).

Cuando se acabó el proyecto Windows Vista, fueron iniciadas un número sin precedentes de pruebas beta del programa, con la participación de cientos de miles de voluntarios y de las empresas. En septiembre de 2005, Microsoft empezó a difundir ordinariamente el Community Technology Previews (CTP) a los probadores beta. El primero de ellos se distribuyó en el 2005: Microsoft Professional Developers Conference, y fue posteriormente puesto en libertad a los probadores beta y a los suscriptores de Microsoft Developer Network. El que construye seguido incorporado la mayoría de las características planeadas para el producto final, así como una serie de cambios en la interfaz de usuario, basada en gran parte en los comentarios de los probadores beta. Windows Vista se consideró característicamente completa con la edición de la "febrero CTP", publicado el 22 de febrero de 2006, y gran parte del resto de los trabajos se centraron en la estabilidad, el rendimiento, la aplicación y la documentación de la versión final del producto. Beta 2, lanzado a finales de mayo, fue la primera construcción que se puso a disposición del público en general a través de Microsoft's Customer Preview Program. Más de cinco millones de personas lo descargaron.


Publicidad de Windows Vista en el edificio de Microsoft Argentina.Aunque Microsoft esperaba que el sistema operativo estuviera disponible en todo el mundo para la Navidad de 2006, se anunció en marzo de ese año que la fecha de lanzamiento sería aplazada hasta enero de 2007, con el fin de otorgar mayor tiempo a las empresas para la construcción de nuevos drivers que fueran compatibles con el nuevo sistema operativo. Durante gran parte de 2006, los analistas y los bloggers especularon que Windows Vista se retrasaría aún más, debido a un antimonopolio, preocupaciones planteadas por la Comisión Europea y Corea del Sur, y debido a una falta de progreso en la versión beta. Sin embargo, el 8 de noviembre de 2006 Microsoft anunció la finalización de Windows Vista, llegando a su fin el proyecto de desarrollo de sistema operativo más largo por parte de dicha empresa.

Las expectativas creadas por Microsoft respecto a Vista, decepcionaron a muchos usuarios por los requerimiento en las prestaciones que debe tener un ordenador para ejecutar Vista normalmente. Así mismo, en sus primeros años se dieron gran cantidad de problemas de compatibilidad con programas y controladores de hardware debido a que no funcionan o no existen versiones para Windows Vista. Varias empresas y universidades han optado por no instalar Vista en sus equipos por problemas con programas lanzados originalmente para Windows XP, así como porque requiere una gran inversión debido a la necesidad de comprar equipos nuevos para poder ejecutar Vista.

lunes, 24 de mayo de 2010

Radio Electron

Fruto de mais uma parceria Rádio MEC e Museu da Vida, Electron é um bate-papo sobre temas de ciencia e tecnologia com tempero de música e literatura. O nome do quadro, Electron, é uma homenagem a Edgard Roquete-Pinto, antropólogo que teve ativa participacao na criacao da primeira rádio brasileira, a Rádio Sociedade. Electron era a revista que trazia a programacao da Rádio Sociedade,cujo acervo acaba de ser organizado e higienizado também em uma parceria Rádio MEC e Museu da Vida. Electron tem a coordenacao e locucao de Luisa Massarani e faz parte do Estacao Cultura que, por sua vez, conta com a apresentacao da Alessandra Eckstein. Dia 25 de setembro: Carlos Chagas, entrevista com Simone Kropf, pesquisadora da Casa de Oswaldo Cruz, Fundacao Oswaldo Cruz. Todos os programas

Windows XP

Windows XP (cuyo nombre en clave inicial fue Whistler) es una versión de Microsoft Windows, línea de sistemas operativos desarrollado por Microsoft. Lanzado al mercado el 25 de octubre de 2001, actualmente es el sistema operativo más utilizado del planeta (con una cuota de mercado del 58,4%) y se considera que existen más de 400 millones de copias funcionando.[3] Las letras "XP" provienen de la palabra eXPeriencia (eXPerience en inglés).

Dispone de versiones para varios entornos informáticos, incluyendo PCs domésticos o de negocios, equipos portátiles, "netbooks", "tablet PC" y "media center". Sucesor de Windows 2000 junto con Windows ME, y antecesor de Windows Vista, es el primer sistema operativo de Microsoft orientado al consumidor que se construye con un núcleo y arquitectura de Windows NT disponible en versiones para plataformas de 32 y 64 bits.

A diferencia de versiones anteriores de Windows, al estar basado en la arquitectura de Windows NT proveniente del código de Windows 2000, presenta mejoras en la estabilidad y el rendimiento. Tiene una interfaz gráfica de usuario (GUI) perceptiblemente reajustada (denominada Luna), la cual incluye características rediseñadas, algunas de las cuales se asemejan ligeramente a otras GUI de otros sistemas operativos, cambio promovido para un uso más fácil que en las versiones anteriores. Se introdujeron nuevas capacidades de gestión de software para evitar el "DLL Hell" (infierno de las DLLs) que plagó las viejas versiones. Es también la primera versión de Windows que utiliza la activación del producto para reducir la piratería del software, una restricción que no sentó bien a algunos usuarios. Ha sido también criticado por las vulnerabilidades de seguridad, integración de Internet Explorer, la inclusión del reproductor Windows Media Player y aspectos de su interfaz.

viernes, 14 de mayo de 2010

Pinturas fabricadas con nanotecnología para purificar el aire

Según un artículo publicado en China Economic Net, las fachadas de los pabellones construidos para la Expo 2010 en China serán pintadas con una pintura fabricada con nanotecnología que purifica el aire. Si resulta eficaz, las autoridades chinas piensan utilizar la pintura en edificios por toda la ciudad de Shanghai para mejorar la calidad del aire y reducir los niveles de contaminación.

El subdirector del Centro de Nano-Ciencia y Investigación Tecnológica de la Universidad de Shanghai ha explicado que "La pintura se convertirá en un purificador permanente de aire que mejorará nuestro entorno".

Participan más de 20 científicos en este proyecto. Esta nueva pintura, desarrollada con los últimos avances nanotecnológicos, es un compuesto basado en óxido de titano y comprendido por nanopartículas. Cuando está expuesto al sol, al haber menos espacio entre los nanopartículas por su tamaño menor, la sustancia puede decomponer las causas más importantes de la contaminación del aire, como el formaldehido y el nitruro. Previsiblemente, la nueva sustancia podrían también utilizarse en aceras y otras obras públicas para lograr una mejor limpieza del aire.

jueves, 13 de mayo de 2010

Los diez grandes descubrimientos científicos del año, según Science

La prestigiosa revista Science ha presentado su tradicional top ten con los descubrimientos científicos más importantes del año. En esta ocasión, el ranking en el que cualquier investigador moriría por aparecer, está coronado por la puesta en valor de los fósiles del Ardipithecus ramidus, una especie homínida que vivió hace 4,4 millones de años en lo que hoy es Etiopía. Este monumental hallazgo quita el puesto a “Lucy” -previamente el esqueleto parcial más antiguo de un homínido del que se tuviera registro- por más de un millón de años, y acerca a los científicos aún más al ultimo antepasado común compartido por humanos y chimpancés.
Además de este nuevo ancestro, Science también ha destacado, entre otras investigaciones
1.«Ardi», la abuela de la humanidad
2. El telescopio Fermi detecta nuevos púlsares
3. El medicamento que prolonga la vida
4. El material que acabará con el silicio
5. Una sustancia química para ayudar a las plantas a afrontar la sequía:
6. El primer láser de rayos X del mundo
7. El maravilloso retorno de la terapia genética
8. Imanes con un solo polo que producen “electricidad”
9. Sí, hay agua en la Luna
10. Unas gafas para los «ojos» del Universo

martes, 4 de mayo de 2010

TWETTIE NUEVA ADQUISICION DE TWITTER



Algo que ya no nos sorprende es el rápido crecimiento que tuvieron las redes sociales en estos últimos tiempos, una de ellas es Twitter la cual, con tan solo 175 personas trabajando para el sitio han logrado superar la cifra de 100 millones de usuarios. Ademas de esto, via Alt1040 hemos recopilado unas cifras que ya no sorprenden a nadie:

* 105,779,710 usuarios registrados.
* 180 millones de visitantes mensuales al sitio.
* 300 mil nuevos registros al día.
* 60% del crecimiento de Twitter es fuera de Estados Unidos.
* 3 mil millones de peticiones al API de Twitter al día.
* 37% de los usuarios activos de Twitter actualizan desde un teléfono móvil.
* 55 millones de tweets son enviados cada dia, la gran mayoría son públicos.
* Se hacen 600 millones de búsquedas al día.



GMAIL
Con la idea de ir mejorando su cliente de correo, Gmail ha lanzado dos nuevas característicasGmail ha presentado dos nuevas características, la vista previa de los correos y etiquetas anidadas. Estas dos nuevas funcionalidades han surgido por lo que parece un pedido de los usuarios para mejorar la visualización de sus correos y poder crear una estructura de árbol bien diagramada para lo que son las etiquetas.

Para activar la visualización previa es necesario acceder a la sección labs en la parte superior derecha de la ventana y navegar en la misma hasta encontrar dicha opción. Junto con esta podes encontrar también ( en Configuración, buscar Etiquetas Anidadas y activar la opción. )

Por lo que puedo apreciar, sos dos funcionalidades realmente útiles para que podamos saber lo que hay adentro del correo sin necesidad de abrirlo y poder armar una estructura de carpetas para poder acceder al contenido mas facilmente.

Avances de hadware y software



YOUTUBE
Hace un tiempo ya hablamos de que YouTube quería entrar en el mundo del alquiler de películas en internet y por fin se han decidido a ofrecerlo. De a poco comenzaron hace un tiempo a ofrecernos películas de festivales para ir probando como salía todo pero ahora han aplicado el abanico de opciones disponibles, simplemente entrando en http://www.youtube.com/store podrás acceder al listado de películas.

Al ser el comienzo de algo nuevo, solamente está disponible en los Estados Unidos tal cual pasa con los sitios de algunas series donde ofrecen los capítulos después de darlos. Esperemos que pronto puedan abrir el cerco y que todos podamos compartir esta experiencia.


IPHONE
Hace unos dias se presento la versión 4 del sistema operativo del iPhone que ha de introducir una gran cantidad de novedades y la cual ya tiene su versión de prueba para los desarrolladores. Aunque muchos dicen que la estrella de esta nueva versión es la multitarea hay un listado de otras funcionalidades que le van a luchar el podio:

DISPOSITIVOS DE ENTRADA.

TECLADO

Un teclado alfanumérico se utiliza principalmente como un dispositivo para introducir texto. El teclado es un dispositivo eficaz para introducir datos no gráficos como rótulos de imágenes asociados con un despliegue de gráficas. Los teclados también pueden ofrecerse con características que facilitan la entrada de coordenadas de la pantalla, selecciones de menús o funciones de gráficas.

Las teclas de control del cursor y las teclas de funciones son características comunes que se encuentran en teclados de uso general. Las teclas de funciones permiten a los usuarios introducir operaciones de uso común con un solo golpe de la llave y las teclas de control del cursor seleccionan posiciones coordenadas posicionando el cursor de la pantalla en un monitor de video. Además, a menudo se incluye un teclado numérico en el teclado de la computadora para agilizar la entrada de datos numéricos.

MOUSE

Es un dispositivo electrónico que nos permite dar instrucciones a nuestra computadora a través de un cursor que aparece en la pantalla y haciendo clic para que se lleve a cabo una acción determinada. A medida que el mouse rueda sobre el escritorio, en correspondencia, el cursor (puntero) en la pantalla hace lo mismo. Tal procedimiento permitirá controlar, apuntar, sostener y manipular varios objetos gráficos(y de texto) en un programa.

Al igual que el teclado, el Mouse es el elemento periférico que más se utiliza en una PC(aunque en dado caso, se puede prescindir de él). Los “ratones” han sido los elementos que más variaciones han sufrido en su diseño. Es difícil ver dos modelos y diseños de ratones iguales, incluso siendo del mismo fabricante.

Es una unidad de ingreso de información. Funciona acoplado a la pantalla del operador permitiendo dar movilidad al cursor (señal apuntadora en pantalla).

SCANNERS

Es una unidad de ingreso de información. Permite la introducción de imágenes gráficas al computador mediante un sistema de matrices de puntos, como resultado de un barrido óptico del documento. La información se almacena en archivos en forma de mapas de bits (bit maps), o en otros formatos más eficientes como JPEG o GIF.

Existen scanners que codifican la información gráfica en blanco y negro, y a colores. Así mismo existen scanners de plataforma plana fija(cama plana) con apariencia muy similar a una fotocopiadora, y scanners de barrido manual.

Los scanners de cama plana pueden verificar una página entera a la vez, mientras que los portátiles solo pueden revisar franjas de alrededor de 4 pulgadas. Reconocen imágenes, textos y códigos de barras, convirtiéndolos en código digital (ASCII o EBCDIC).

DISCOS DUROS:

Los discos duros son dispositivos de almacenamiento secundario con una superficie circular y plana, que se utilizan para registrar información masiva, programas y datos en computadores personales o microcomputadoras.

El disco duro es conocido también como Hard Disk, el disco fijo como Fixed Disk y la unidad de disco duro como Hard Drive.

Estos discos consisten en un soporte rígido sobre el que se deposita una pequeña película de material magnetizable (óxidos o metales), que permite la grabación de los datos por magnetización.

Los avances en las tecnologías de película magnética delgada, permiten que los datos sean grabados en dominios cada vez más pequeños y que estos dispositivos sufran menos daños durante el proceso de lectura-escritura, gracias a que la dureza de sus superficies de grabación es dos veces superior a la de las tradicionales superficies de óxido de hierro. Todas estas mejoras están facilitando disponer de discos con mayores densidades de almacenamiento y con unos tiempos de acceso sensiblemente inferiores.

MICRÓFONOS

Los micrófonos son los transductores* encargados de transformar energía acústica en energía eléctrica, permitiendo, por lo tanto el registro, almacenamiento, transmisión y procesamiento electrónico de las señales de audio. Son dispositivos duales de los altoparlantes, constituyendo ambos transductores los elementos mas significativos en cuanto a las características sonoras que sobreimponen a las señales de audio.

No existe el micrófono ideal, debido a la sencilla razón que no se tiene un solo ambiente acústico o un solo tipo de música. Es por ello que, el ingeniero de sonido tiene a su disposición una amplia gama de micrófonos, cada uno de los cuales sirve para ciertos casos particulares.

Existen los llamados micrófonos de diadema que son aquellos, que, como su nombre lo indica, se adhieren a la cabeza como una diadema cualquiera, lo que permite al usuario mayor comodidad ya no necesita sostenerlo con las manos, lo que le permite realizar otras actividades.

LÁPIZ ÓPTICO

Es una unidad de ingreso de información que funciona acoplada a una pantalla fotosensible.

Es un dispositivo exteriormente semejante a un lápiz, con un mecanismo de resorte en la punta o en un botón lateral, mediante el cual se puede seleccionar información visualizada en la pantalla. Cuando se dispone de información desplegada, con el lápiz óptico se puede escoger una opción entre las diferentes alternativas, presionándolo sobre la ventana respectiva o presionando el botón lateral, permitiendo de ese modo que se proyecte un rayo láser desde el lápiz hacia la pantalla fotosensible.

Es un dispositivo señalador que permite sostener sobre la pantalla un lápiz que está conectado al ordenador o computadora y con el que es posible seleccionar elementos u opciones (el equivalente a un clic de mouse o ratón), bien presionando un botón en un lateral del lápiz óptico o presionando éste contra la superficie de la pantalla. El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario.

DISPOSITIVOS DE SALIDA
MONITOR:

Dispositivos de salida más comunes de las computadoras con el que los usuarios ven la información en pantalla. Recibe también los nombres de CRT, pantalla o terminal. En computación se distingue entre el “monitor”, que incluye todo el aparato que produce las imágenes, y la “pantalla”, que es sólo el área donde vemos las imágenes. Así, el dispositivo de salida es todo el monitor, no solamente la pantalla.

Toda la información (letras, gráficas y colores) de una pantalla está formada por pequeños puntos llamados pixels (PICture Elements). La unidad del sistema manda la información al monitor acerca de los pixels que deben estar apagados(color negro) y los que deben de estar prendidos (iluminados) con un determinado color o intesidad. Así, punto por punto, se van formando las letras y las áreas iluminadas de una imagen.

Los primeros monitores de computadoras eran monocromáticos, es decir, desplegaban un solo color, generalmente verde o amarillo. Además, las imágenes tenían muy poca resolución, ya que cada píxel era muy grande. Actualmente estos monitores se pueden ver en algunas terminales de aeropuertos.

Los monitores más recientes no tienen problema en presentar gráficas, líneas y áreas de colores, además de letras de diferentes tipos y tamaños. Por esto también se les conoce como monitores gráficos.

TUBOS DE RAYOS CATÓDICOS

Prácticamente todas las computadoras de escritorio utilizan tubos de rayos catódicos o CRT. Esta tecnología consiste en un aparato colocado en la parte trasera del monitor, que proyecta imágenes sobre la pantalla. Por eso, los monitores con CRT son aparatos grandes , que necesitan de determinado espacio interno para proyectar imágenes. Sin embargo, esta tecnología es mucho más barata y eficaz que la tecnología utilizada en los monitores de computadoras portátiles.

MONITORES PLANOS

Este tipo de monitores son usados en la mayoría de los casos en las computadoras portátiles. Se requiere que sean aparatos ligeros y que consuman poca energía.

A continuación se mencionan los tipos de monitores planos más comunes:

*

Liquid- Cristal Display (LCD): Trabajan mediante una placa de cristal líquido de cuarzo, como la de algunos relojes. Al aplicar una carga de energía eléctrica a partes de esta placa, cambian sus propiedades ópticas y es posible ver caracteres que se están desplegando. Debido a que estos dispositivos no emiten luz, es difícil ver la información, y su resolución es poca, por lo que están orientados a desplegar sólo textos y números.
*

Electroluminiscencia(EL): Están fabricados con un material que al aplicarle una carga eléctrica emiten luz. Se pueden lograr diferentes tonos variando la intensidad de la carga, lo cual permite ver fácilmente la información que se está desplegando la pantalla.
*

Gas- plasma: Emplean (como en una lámpara de neón) un gas al recibir una carga eléctrica emite luz. Estos monitores manejan un solo color, pero tienen mayores resoluciones y capacidad de desplegar diversas tonalidades, llegando así al estándar VGA. Sin embargo, su costo de fabricación es elevado y consumen relativamente mucha energía, lo que limita su portabilidad.

IMPRESORA:

Como indica su nombre, la impresora es el periférico que el ordenador utiliza para presentar información impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los monitores, siendo durante años el método más usual para presentar los resultados de los cálculos en aquellos primitivos ordenadores, todo un avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces.

Aunque en nada se parecen las modernas impresoras a sus antepasadas de aquellos tiempos, no hay duda de que igual que hubo impresoras antes que PCs, las habrá después de éstos, aunque se basen en tecnologías que aún no han sido siquiera inventadas. Resulta muy improbable que los seres humanos abandonemos totalmente el papel por una fría pantalla de ordenador; Gutenberg estaría orgulloso, supongo.

Generalidades y definiciones:

Antes de adentrarnos en este complejo mundo de las impresoras, vamos a exponer algunos de los conceptos básicos sobre las mismas.

Velocidad

La velocidad de una impresora se suele medir con dos parámetros:

*

ppm: páginas por minuto que es capaz de imprimir;
*

cps: caracteres (letras) por segundo que es capaz de imprimir.

Actualmente se usa casi exclusivamente el valor de ppm, mientras que el de cps se reserva para las pocas impresoras matriciales que aún se fabrican. De cualquier modo, los fabricantes siempre calculan ambos parámetros de forma totalmente engañosa; por ejemplo, cuando se dice que una impresora de tinta llega a 7 páginas por minuto no se nos advierte de que son páginas con como mucho un 5% de superficie impresa, en la calidad más baja, sin gráficos y descontando el tiempo de cálculo del ordenador.

Y aún así resulta prácticamente imposible conseguir dicha cifra; en realidad, rara vez se consiguen más de 3 ppm de texto con una impresora de tinta, si bien con una láser es más fácil acercarse a las cifras teóricas que indica el fabricante.

Resolución

Probablemente sea el parámetro que mejor define a una impresora. La resolución es la mejor o peor calidad de imagen que se puede obtener con la impresora, medida en número de puntos individuales que es capaz de dibujar una impresora.

Se habla generalmente de ppp, puntos por pulgada (cuadrada) que imprime una impresora. Así, cuando hablamos de una impresora con resolución de "600x300 ppp" nos estamos refiriendo a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede situar 600 puntos individuales, mientras que en vertical llega hasta los 300 puntos. Si sólo aparece una cifra ("600 ppp", por ejemplo) suele significar que la resolución horizontal es igual que la vertical.

De cualquier modo, no todo es "tirar puntos" sobre el papel. Dos impresoras de la misma resolución teórica pueden dar resultados muy dispares, ya que también influye el tamaño de esos puntos y la precisión a la hora de colocarlos sobre el papel. De nada sirve colocar 360.000 puntos en una pulgada cuadrada si están puestos unos sobre otros emborronando la imagen.

Existen 4 tipos de impresora las cuales son:

INYECCIÓN DE TINTA:

Por supuesto, las impresoras matriciales utilizan tinta, pero cuando nos referimos a impresora de tinta nos solemos referir a aquéllas en las que la tinta se encuentra en forma más o menos líquida, no impregnando una cinta como en las matriciales.

La tinta suele ser impulsada hacia el papel por unos mecanismos que se denominan inyectores, mediante la aplicación de una carga eléctrica que hace saltar una minúscula gota de tinta por cada inyector, sin necesidad de impacto. De todas formas, los entresijos últimos de este proceso varían de una a otra marca de impresoras (por ejemplo, Canon emplea en exclusiva lo que denomina "inyección por burbuja") y no son realmente significativos a la hora de adquirir una u otra impresora.

Estas impresoras destacan por la sencilla utilización del color. Antiguamente (y todavía en algunos modelos de muy baja gama o en impresoras portátiles), para escribir cualquier cosa en color se tenía que sustituir el cartucho de tinta negra por otro con tintas de los colores básicos (generalmente magenta, cyan y amarillo). Este método tenía el inconveniente de que el texto negro se fabricaba mezclando los tres colores básicos, lo que era más lento, más caro en tinta y dejaba un negro con un cierto matiz verdoso. En la actualidad, la práctica totalidad de estas impresoras incorporan soporte para el uso simultáneo de los cartuchos de negro y de color.

La resolución de estas impresoras es en teoría bastante elevada, hasta de 1.440 ppp, pero en realidad la colocación de los puntos de tinta sobre el papel resulta bastante deficiente, por lo que no es raro encontrar que el resultado de una impresora láser de 300 ppp sea mucho mejor que el de una de tinta del doble de resolución. Por otra parte, suelen existir papeles especiales, mucho más caros que los clásicos folios de papelería, para alcanzar resultados óptimos a la máxima resolución o una gama de colores más viva y realista.

El principal destinatario de este tipo de impresoras es el usuario doméstico, además del oficinista que no necesita trabajar con papel continuo ni con copias múltiples pero sí ocasionalmente con color (logotipos, gráficos, pequeñas imágenes...) con una calidad aceptable. Fabricantes existen decenas, desde los clásicos contendientes Epson y Hewlett-Packard (HP) hasta otros de mucho menor volumen de ventas pero que no desmerecen nada, como son Canon, Tektronik, Lexmark, Oki...

Una nota sobre los cartuchos de tinta: son relativamente caros, debido a que generalmente no sólo contienen la tinta, sino parte o la totalidad del cabezal de impresión; este sistema asegura que el cabezal siempre está en buen estado, pero encarece el precio. Existen decenas de sistemas de recarga de cartuchos para rellenar el cartucho aprovechando el cabezal, pero en el 99% de los casos son un engorro y se pone todo perdido de tinta.

IMPRESORA LÁSER:

Son las de mayor calidad del mercado, si entendemos por calidad la resolución sobre papel normal que se puede obtener, unos 600 ppp reales. En ellas la impresión se consigue mediante un láser que va dibujando la imagen electrostáticamente en un elemento llamado tambor que va girando hasta impregnarse de un polvo muy fino llamado tóner (como el de fotocopiadoras) que se le adhiere debido a la carga eléctrica. Por último, el tambor sigue girando y se encuentra con la hoja, en la cual imprime el tóner que formará la imagen definitiva.

Las peculiares características de estas impresoras obligan a que dispongan de su propia memoria para almacenar una copia electrónica de la imagen que deben imprimir. A mayor tamaño y calidad de impresión necesitaremos mayor cantidad de memoria, que estará entorno a 1 ó 2 MB; si el documento a imprimir fuera muy largo y complejo, por ejemplo con varias fotografías o a una resolución muy alta, puede producirse un error por overflow (falta de memoria), lo que puede evitarse mediante la tecnología GDI comentada anteriormente (es decir, utilizando memoria del propio PC) o preferiblemente instalando más memoria a la impresora.

El único problema de importancia de las impresoras láser es que sólo imprimen en blanco y negro. En realidad, sí existen impresoras láser de color, que dan unos resultados bastante buenos, pero su precio es absolutamente desorbitado.

Las láser son muy resistentes, mucho más rápidas y mucho más silenciosas que las impresoras matriciales o de tinta, y aunque la inversión inicial en una láser es mayor que en una de las otras, el tóner sale más barato a la larga que los cartuchos de tinta, por lo que a la larga se recupera la inversión. Estas impresoras suelen ser utilizadas en el mundo empresarial, ya que su precio de coste es más alto que el de las de inyección de tinta, pero su coste de mantenimiento es más bajo, y existen dispositivos con una muy alta velocidad por copia y calidad y disponibilidad superiores, así como también admiten una mayor carga de trabajo.

Una de las características más importantes de estas impresoras es que pueden llegar a velocidades muy altas, medidas en páginas por minuto. Su resolución también puede ser muy elevada y su calidad muy alta. Empiezan a ser habituales resoluciones de 1.200 ppm (puntos por pulgada) y velocidades de 16 ppm, aunque esta velocidad puede ser mucho mayor en modelos preparados para grupos de trabajo, hasta 40 ppm y más.

Otras características importantes son la cantidad de memoria disponible y el modelo de procesador, que suele ser de tipo RISC. La memoria es importante para actuar como "buffer" en donde almacenar los trabajos que le van llegando y para almacenar fuentes y otros motivos gráficos o de texto que permitan actuar como "preimpresos" e imprimirlos en cada una de las copias sin necesidad de mandarlos en cada página

IMPRESORAS DE MATRIZ Y MARGARITA:

Fueron las primeras que surgieron en el mercado. Se las denomina "de impacto" porque imprimen mediante el impacto de unas pequeñas piezas (la matriz de impresión) sobre una cinta impregnada en tinta, la cual suele ser fuente de muchos quebraderos de cabeza si su calidad no es la que sería deseable.

Según cómo sea el cabezal de impresión, se dividen en dos grupos principales: de margarita y de agujas. Las de margarita incorporan una bola metálica en la que están en relieve las diversas letras y símbolos a imprimir; la bola pivota sobre un soporte móvil y golpea a la cinta de tinta, con lo que se imprime la letra correspondiente. El método es absolutamente el mismo que se usa en muchas máquinas de escribir eléctricas, lo único que las diferencia es la carencia de teclado.

Las impresoras de margarita y otros métodos que usan tipos fijos de letra están en completo desuso debido a que sólo son capaces de escribir texto; además, para cambiar de tipo o tamaño de letra deberíamos cambiar la matriz de impresión (la bola) cada vez. Por otra parte, la calidad del texto y la velocidad son muy altas, además de que permiten obtener copias múltiples en papel de autocopia o papel carbón.

Las impresoras de agujas, muchas veces denominadas simplemente matriciales, tienen una matriz de pequeñas agujas que impactan en el papel formando la imagen deseada; cuantas más agujas posea el cabezal de impresión mayor será la resolución, que suele estar entre 150 y 300 ppp, siendo casi imposible superar esta última cifra.

Aunque la resolución no sea muy alta es posible obtener gráficos de cierta calidad, si bien en blanco y negro, no en color. El uso de color implica la utilización de varias cintas o cintas más anchas, además de ser casi imposible conseguir una gama realista de colores, más allá de los más básicos.

Al ser impresoras de impacto pueden obtener copias múltiples, lo que las hace especialmente útiles en oficinas o comercios para la realización de listados, facturas, albaranes y demás documentos. Su velocidad en texto es de las más elevadas, aunque a costa de producir un ruido ciertamente elevado, que en ocasiones llega a ser molesto. Resulta muy común encontrarlas con alimentadores para papel continuo, lo que sólo ocurre con algunas impresoras de tinta de precio elevado.

En general, las impresoras matriciales de agujas se posicionan como impresoras de precio reducido, calidad media-baja, escaso mantenimiento y alta capacidad de impresión. Entre los pocos fabricantes que quedan de estas impresoras destaca Epson, con un enorme catálogo con opciones y precios para todos los gustos.

BOCINAS:

Cada vez las usa más la computadora para el manejo de sonidos, para la cual se utiliza como salida algún tipo de bocinas. Algunas bocinas son de mesas, similares a la de cualquier aparato de sonidos y otras son portátiles (audífonos). Existen modelos muy variados, de acuerdo a su diseño y la capacidad en watts que poseen.

MULTIMEDIA:

Combinación de Hardware y Software que puede reproducir salidas que emplean diversos medios como texto, gráficos, animación, video, música, voz y efectos de sonido.

PLOTTERS:

Es una unidad de salida de información que permite obtener documentos en forma de dibujo.

Existen plotters para diferentes tamaños máximos de hojas (A0, A1, A2, A3 y A4); para diferentes calidades de hojas de salida (bond, calco, acetato); para distintos espesores de línea de dibujo (diferentes espesores de rapidógrafos), y para distintos colores de dibujo (distintos colores de tinta en los rapidógrafos).

Existen dos tipos de estos dispositivos:

*

Flatbed plotter(trazador plano): Trazador de gráficos que dibuja en hojas de papel que han sido colocadas en un tablero. El tamaño del tablero determina el tamaño máximo de las hojas que pueden utilizarse.
*

Drum plotter(Trazador de tambor): Trazador gráfico que envuelve el papel alrededor de un tambor. El tambor gira para producir una dirección de trazado, el lápiz se mueve para proporcionar la otra.

DATA SHOW O CAÑONES:

Es una unidad de salida de información. Es básicamente una pantalla plana de cristal líquido, transparente e independiente. Acoplado a un retroproyector permite la proyección amplificada de la información existente en la pantalla del operador.

Existe una variante tecnológica del data show, conocida como el cañón de proyección, que puede ser catalogada como un sistema independiente de proyección mediante lentes, muy similar a un proyector de video. Los modelos más recientes de cañones utilizan LCDs.

CÁMARAS

Cámara digital: Es una cámara equipada con un captador electrónico fotosensible. Las imágenes digitales son almacenadas directamente en la memoria de la cámara y pueden ser utilizadas inmediatamente después en un ordenador.

Cámara para Internet: Son aquellas que podemos observar en la parte superior del monitor de una computadora. Su utilidad no es muy grande, pero permite al usuario captar imágenes y luego almacenarlas en la memoria de la computadora. Así mismo, se usa para intercambio de imágenes por Internet ya que , si uno lo desea, puede iniciar una charla con imágenes o enviar imágenes en la red.

martes, 27 de abril de 2010

Socket 754.


Socket con 754 pines, entre 0.80v y 1.55v, con un bus de 200Mhz y FSB de 800, soportando HyperTransport. Soporta módulos de memoria DDR, que es gestionada directamente por el procesador.

Sustituyó al socket A, a fin de agilizar el tráfico de datos y dar soporte a los nuevos procesadores AMD de 64 bits reales (AMD64), conocidos también como AMD K8.

A partir de este socket se abandonan las sujecciones del disipador directamente al socket, sustituyéndose estas por una estructora adosada a la placa base, como se puede observar en la imagen del socket AM2.

Soporta procesadores AMD Sempron (2500+ - 3000+) y AMD Athlon 64 (2800+ - 3700+).

Aun sigue utilizándose, sobre todo en equipos de bajo coste para algunos mercados, con procesadores Sempron.

Socket Super 7


Basado en el socket 7 de Intel, se desarrolló para soportar un mayor índice de ciclos de reloj, así como para poder usar el nuevo puerto AGP

Es el primer socket desarrollado exclusivamente para procesadores AMD.

Procesadores soportados: AMD K6-2 y K6-3

Socket 604


Socket de 604 pines, con un FSB de 400, 533, 667 y 800Mhz.

Se trata de un socket desarrollado exclusivamente para los procesadores de la gama Xeon (procesadores para servidores). Es muy frecuente que se trate de placas duales (es decir, con dos procesadores).

viernes, 23 de abril de 2010

Opteron: Socket 940


1.-Puede trabajar en configuración de memoria dual. El controlador integrado de todos los procesadores para Socket 940 permite trabajar en configuración single y dual channel.
2.-El Opteron 940 es capaz de trabajar en tres modos: 32 puro, 64 puro y 32/64 simultáneo. No hay penalización de rendimiento en ninguno de los tres modos.
3.-Se ofrece exclusivamente con 1MB de caché L2.
4.-Versión más rápida: Opteron 250 (2'4GHz).
5.-Del más viejo al más nuevo, los núcleos usados son: Sledgehammer. Pero para 2005 se esperan las siguientes versiones: Athens (sin SMP), Troy (1-2 CPUs) y Venus (1-8 CPUs).
6.-Longevidad en el mercado: muy grande. AMD ha creado esta CPU para cubrir el segmento de mercado de servidores. Con una arquitectura escalable capaz de admitir hasta 8 procesadores, se pueden conseguir rendimientos extremos con una relación rendimiento/precio extremadamente atractiva.
7.-Overclockability: con las nuevas versiones no se han conseguido velocidades superiores a 2'60GHz. La próxima revisión será el Opteron 252 a 2'60GHz, que es, probablemente, el límite actual para 130nm. Un cambio a 90nm, o posteriores revisiones, podrían permitir un Opteron 254.
8.-Mejor placa madre: probablemente la Tyan Thunder K8W (S2885), que ofrece:

-Hasta dos procesadores Opteron
-Ocho conectores DIMM de 184 pines y 2'5V para disponer de hasta 16GB de memoria.
-Cuatro slots PCI-X de 64 bits y un AGP 8x/AGP Pro110.
-Un controlador de GbE Lan y controlador integrado FireWire.
-Controlador Serial ATA y sistema de audio.
9.-Capacidades SMP: es la única CPU de 64 bits con capacidades SMP. Permite sistemas SMP de hasta 8 procesadores.

Athlon FX: Socket 939


1.-Puede trabajar en configuración de memoria dual. El controlador integrado de todos los procesadores para Socket 939 permite trabajar en configuración single y dual channel.
2.-El Athlon FX para Socket 939 es capaz de trabajar en tres modos: 32 puro, 64 puro y 32/64 simultáneo. No hay penalización de rendimiento en ninguno de los tres modos.
3.-Se ofrece únicamente con 1MB de caché L2.
4.-Versión más rápida: FX-55 (2'6GHz).
5.-Del más viejo al más nuevo, los núcleos usados son: Sledgehammer. Para la primera mitad de 2005 se espera el nuevo núcleo San Diego, fabricado con tecnología de 90nm.
6.-Longevidad en el mercado: muy grande. AMD ha creado esta CPU para cubrir el segmento de la gente con mucho dinero para gastar, para aquellos que quieren el "más grande, mejor, más rápido, el más de lo más".
7.-Overclockability: este procesador, en las pruebas realizadas, nunca superó los 2'70GHz. Se espera, sin embargo, que la nueva versión (FX-57) trabaje a 2'8GHz.
8.-Mejor placa madre: probablemente la EPoX 9NDA3+, basada en el chipset nForce3 ULTRA. Sin embargo, hay que tener en cuenta las ofertas de Abit, EPoX, DFI y Asus que saldrán con el chipset nForce4, que aparecerán a finales de 2004 y que, probablemente, sean una mejor opción. La mejor sugerencia es esperar, si es posible.
9.-Capacidad SMP: imposible.

Athlon 64: Socket 754



1.-No permite usar memoria en configuración de doble canal. La arquitectura del Socket 754 mueve el controlador de memoria al interior del procesador, por lo que debe ser éste quien la soporte, y AMD no ha sacado ninguna versión que lo haga.
2.-El Athlon 64 para Socket 754 es capaz de trabajar en tres modos: 32 puro, 64 puro y 32/64 simultáneo. No hay penalización de rendimiento en ninguno de los tres modos.
3.-Se ofrece principalmente con 512Kbytes de caché L2, con la excepción de los procesadores OEM DTT 3400+ y 3700+, que incorporan 1MB de caché L2.
4.-Versión más rápida: 3700+ (2'4GHz).
5.-Del más viejo al más nuevo, los núcleos usados son: Clawhammer, Newcastle.
6.-Longevidad en el mercado: Difícil de predecir. Es difícil saber qué ocurrirá con el Socket 754, sobre todo si se tiene en cuenta que la estrategia de AMD pretende migrar hacia la plataforma 939. Sería caro para AMD y los fabricantes mantener las tres plataformas 754/939/940. Según los planes de mercado de AMD, la plataforma 754 migrará a Sempron, mientras que los Athlon 64 pasarán al núcleo Winchester, que es un producto exclusivo para Socket 939.
7.-Overclockability: algunos usuarios han conseguido elevar la velocidad hasta 2'60GHz.
8.-Mejor placa madre: con seguridad, la DFI LanPartyUT NF3 250GB.
9.-Capacidad SMP: imposible.


Athlon 64: Socket 939

1.-PUEDE trabajar en configuración de memoria dual. El controlador integrado de todos los procesadores para Socket 939 permite trabajar en configuración single y dual channel.
2.-El Athlon 64 para Socket 939 es capaz de trabajar en tres modos: 32 puro, 64 puro y 32/64 simultáneo. No hay penalización de rendimiento en ninguno de los tres modos.
3.-Se ofrece principalmente con 512Kbytes de caché L2, con la excepción del 4000+, que incorporan 1MB de caché L2.
4.-Versión más rápida: 4000+ (2'4GHz).
5.-Del más viejo al más nuevo, los núcleos usados son: Clawhammer, Newcastle, Winchester.
6.-Longevidad en el mercado: muy grande. AMD ha creado esta CPU para cubrir un amplio segmento de su estrategia de mercado.
7.-Overclockability: con las nuevas versiones de 90nm con núcleo Winchester se han conseguido velocidades de 2'50GHz, la cual está por encima de la de 4000+ pero por debajo de la del Athlon FX-55.
8.-Mejor placa madre: probablemente la EPoX 9NDA3+, basada en el chipset nForce3 ULTRA. Sin embargo, hay que tener en cuenta las ofertas de Abit, EPoX, DFI y Asus que saldrán con el chipset nForce4, que aparecerán a finales de 2004 y que, probablemente, sean una mejor opción. La mejor sugerencia es esperar, si es posible.
9.-Capacidad SMP: imposible.

Sempron: Socket 754


1.-No permite usar memoria en configuración de doble canal. La arquitectura del Socket 754 mueve el controlador de memoria al interior del procesador, por lo que debe ser éste quien la soporte, y AMD no ha sacado ninguna versión que lo haga.
2.-No puede ejecutar código de 64 bits.
3.-Se ofrece únicamente con 256Kbytes de caché L2.
4.-Versión más rápida: 3100+ (1'8GHz).
5.-Del más viejo al más nuevo, los núcleos usados son: Paris.
6.-Longevidad en el mercado: acaban de salir para sustituir al Duron. Todavía queda por ver su capacidad de venta. Es difícil saber qué ocurrirá con el Socket 754, sobre todo si se tiene en cuenta que la estrategia de AMD pretende migrar hacia la plataforma 939. Sería caro para AMD y los fabricantes mantener las tres plataformas 754/939/940. Según los planes de mercado de AMD, recibirá una única revisión en el cambio a tecnología de 90nm. Esta revisión se denomina Palermo, y está programada para la primera mitad de 2005.
7.-Overclockability: no hay informes.
8.-Mejor placa madre: con seguridad, la DFI LanPartyUT NF3 250GB.
9.-Capacidad SMP: imposible.

Sempron: Socket A


1.-Admite un controlador memoria de doble canal, pero depende del chipset. Pero, debido al diseño de bus/reloj síncrono, será incapaz de aprovechar más del 50% del ancho de banda en dicha configuración.
2.-No puede ejecutar código de 64 bits.
3.-Se ofrece principalmente con 256Kbytes de caché L2, aunque la versión 2200+ dispone de 512K y la versión 2400+ de 128K.
4.-Versión más rápida: 2800+ (2GHz).
5.-Del más viejo al más nuevo, los núcleos usados son: Thoroughbred B, Thorton.
6.-Longevidad en el mercado: acaban de salir para sustituir al Duron. Todavía queda por ver su capacidad de venta, pero los usuarios han informado de una buena compatibilidad con placas Socket A. Sin embargo, los planes de AMD no contemplan ninguna revisión de los núcleos.
7.-Overclockability: con refrigeración por aire, hasta 2'20GHz. Con refrigeración líquida, hasta 2'50GHz.
8.-Mejor placa madre: probablemente la Abit NF7-S 2.0 es la mejor. Una reciente actualización de la BIOS permite adaptarla al nuevo procesador fácilmente.
9.-Capacidad SMP: teóricamente es posible por estar basado en el núcleo Thoroughbred. Sin embargo, su encapsulado protege los puentes que permitirían cambiarlo.

Athlon XP: Socket A


1.-Admite un controlador memoria de doble canal, pero depende del chipset. Pero, debido al diseño de bus/reloj síncrono, será incapaz de aprovechar más del 50% del ancho de banda en dicha configuración.
2.-No puede ejecutar código de 64 bits.
3.-Se ofrece principalmente con 512Kbytes de caché L2, aunque versiones antiguas, como el Thoroughbred-B, venían con 256K.
4.-Versión más rápida: 3200+ (2'20GHz).
5.-Del más viejo al más nuevo, los núcleos usados son: Palomino, Thoroughbred A, Thoroughbred B, Barton, Thorton
6.-Longevidad en el mercado: unos 16 meses más. AMD dejará de suministrarlos en el segundo trimestre de 2005, y se espera que los stocks se vacíen a finales del mismo año. Sin embargo, es un procesador potente, fiable y capaz de mover muchos juegos actuales. Los sistemas asequibles deberían tener en mente a este procesador.
7.-Overclockability: con refrigeración por aire, hasta 2'40GHz. Con refrigeración líquida, hasta 2'70GHz.
8.-Mejor placa madre: probablemente la Abit NF7-S 2.0 es la mejor para procesadores Athlon XP.
9.-Capacidad SMP: teóricamente es posible, aunque serían necesarias modificaciones en el bridge.

TIPOS DE PROCESADORES AMD


Duron: Socket A

1.-Admite un controlador memoria de doble canal, pero depende del chipset. Pero, debido al diseño de bus/reloj síncrono, será incapaz de aprovechar más del 50% del ancho de banda en dicha configuración.
2.-No puede ejecutar código de 64 bits.
3.-Se ofrece principalmente con 64Kbytes de caché L2.
4.-Versión más rápida: 1'80GHz.
5.-Del más viejo al más nuevo, los núcleos usados son: Spitfire, Morgan, Appaloosa, Applebred.
6.-Longevidad en el mercado: Prácticamente ninguna. Con el lanzamiento de la familia Sempron cabe esperar la desaparición total.
7.-Overclockability: algunos usuarios afirman haber conseguido velocidades de hasta 2'40GHz en procesadores Duron basados en el núcleo Applebred y con refrigeración por aire. Nadie parece haber probado refrigeración líquida.
8.-Mejor placa madre: probablemente la Abit NF7-S 2.0 es la mejor para procesadores Athlon XP.
9.-Capacidad SMP: teóricamente es posible, aunque serían necesarias modificaciones en el bridge.

DISTINTOS TIPOS DE PROCESADORES QUE HAN EXISTIDO

Procesador Intel Core 2 Extreme (4 nucleos)
Numero Arquitectura C. L2 Velocidad Bus Zocalo Intel VT
Qx9775 45nm 12Mb 3,20Ghz 1600Mhz Si
Qx9770 45nm 12Mb 3,20Ghz 1600Mhz Loga775 Si
Qx9650 45nm 12Mb 3Ghz 1333Mhz Lga775 Si
Qx6850 65nm 8Mb 3Ghz 1333Mhz Lga775 Si
Qx6800 65nm 8Mb 2,93Ghz 1066Mhz Lga775 Si
Qx6700 65nm 8Mb 2,66Ghz 1066Mhz Lga775 Si
Qx6800 65nm 4M 2,93Ghz 1066Mhz Lga775 Si

Procesador Intel Core 2 Quad (4 nucleos)
Numero Arquitectura C. L2 Velocidad Bus Zocalo Intel VT
Q9650 45nm 12Mb 3Ghz 1333Mhz Lga775 Si
Q9400 45nm 6Mb 2,66Mhz 1333Mhz Lga775 Si
Q9550 45nm 12Mb 2,83Mhz 1333Mhz Lga775 Si
Q9450 45nm 6M 2,50Ghz 1333Mhz Lga775 Si
Q9300 45nm 6M 2,50Ghz 1066Mhz Lga775 Si
Q6700 65nm 8M 2,66Ghz 1066Mhz Lga775 Si
Q6600 65nm 8M 2,40Ghz 1066Mhz Lga775 Si

Procesador Intel Core 2 Duo (2 nucleos)
Numero Arquitectura C. L2 Velocidad Bus Zocalo Intel VT
E8600 45nm 6M 3,33Ghz 1333Mhz Lga775 Si
E7300 45nm 3M 2,66Ghz 1066Mhz Lga775 No
E8500 45nm 6M 3,16Ghz 1333Mhz Lga775 Si
E8400 45nm 6M 3Ghz 1333Mhz Lga775 Si
E8300 45nm 6M 2,83Ghz 1333Mhz Lga775 Si
E8200 45nm 6M 2,66Ghz 1333Mhz Lga775 Si
E8190 45nm 6M 2,66Ghz 1333Mhz Lga775 No
E7200 45nm 3M 2,53Ghz 1066Mhz Lga775 NO
E6850 65nm 4M 3Ghz 1333Mhz Lga775 Si
E6750 65nm 4M 2,66Ghz 1333Mhz Lga775 Si
E6700 65nm 4M 2,66Ghz 1066Mhz Lga775 Si
E6600 65nm 4M 2,40Ghz 1066Mhz Lga775 Si
E6550 65nm 4M 2,33Ghz 1333Mhz Lga775 Si
E6540 65nm 4M 2,33Ghz 1333Mhz Lga775 Si
E6420 65nm 4M 2,13Ghz 1066Mhz Lga775 Si
E6400 65nm 2M 2,13Ghz 1066Mhz Lga775 Si
E6320 65nm 4M 1,86Ghz 1066Mhz Lga775 Si
E6300 65nm 2M 1,86Ghz 1066Mhz Lga775 Si
E4700 65nm 2Mb 2,60Ghz 800Mhz Lga775 No
E4600 65nm 2Mb 2,40Ghz 800Mhz Lga775 No
E4500 65nm 2Mb 2,20Ghz 800Mhz Lga775 No
E4400 65nm 2Mb 2Ghz 800Mhz Lga775 No
E4300 65nm 2Mb 1,80Ghz 800Mhz Lga775 No

Procesador Intel Pentium Extreme Edition (2 nucleos)
Numero Arquitectura C. L2 Velocidad Bus Zocalo Intel VT
965 65nm 2×2Mb 3,73Ghz 1066Mhz Lga775 Si
955 65nm 2×2Mb 3,46Ghz 1066Mhz Lga775 Si
840 90nm 2×1Mb 3,20Ghz 800Mhz Lga775 Si

Procesador Intel Pentium dual-core (2 nucleos)
Numero Arquitectura C. L2 Velocidad Bus Zocalo Intel VT
E2220 65nm 1Mb 2,40Ghz 800Mhz Lga775 No
E2200 65nm 1Mb 2,20Ghz 800Mhz Lga775 No
E2180 65nm 1Mb 2Ghz 800Mhz Lga775 No
E2160 65nm 1Mb 1,80Ghz 800Mhz Lga775 No
E2140 65nm 1Mb 1,60Ghz 800Mhz Lga775 No

Procesador Intel Pentium D (Multi-core)
Numero Arquitectura C. L2 Velocidad Bus Zocalo Intel VT
E2140 65nm 1Mb 1,60Ghz 800Mhz Lga775 No
960 65nm 2×2Mb 3,60Ghz 800Mhz Lga775 Si
950 65nm 2×2Mb 3,40Ghz 800Mhz Lga775 Si
945 65nm 2×2Mb 3,40Ghz 800Mhz Lga775 No
940 65nm 2×2Mb 3,20Ghz 800Mhz Lga775 Si
935 65nm 2×2Mb 3,20Ghz 800Mhz Lga775 No
930 65nm 2×2Mb 3Ghz 800Mhz Lga775 Si
925 65nm 2×2Mb 3Ghz 800Mhz Lga775 No
920 65nm 2×2Mb 2,80Ghz 800Mhz Lga775 Si
915 65nm 2×2Mb 2,80Ghz 800Mhz Lga775 No
840 90nm 2×1Mb 3,20Ghz 800Mhz Lga775 No
930 65nm 2×2Mb 3Ghz 800Mhz Lga775 Si
925 65nm 2×2Mb 3Ghz 800Mhz Lga775 No
920 65nm 2×2Mb 2,80Ghz 800Mhz Lga775 Si
915 65nm 2×2Mb 2,80Ghz 800Mhz Lga775 No
840 90nm 2×1Mb 3,20Ghz 800Mhz Lga775 Si
830 90nm 2×1Mb 3Ghz 800Mhz Lga775 No
820 90nm 2×1Mb 2,80Ghz 800Mhz Lga775 No
805 90nm 2×1Mb 2,66Ghz 533Mhz Lga775 No

martes, 20 de abril de 2010

La primera generación de computadoras


Estas computadoras y sus antecesoras, se describen en la siguiente lista. Los principales modelos fueron:

1947 ENIAC. Primera computadora digital electrónica, era una máquina experimental. No era programable en el sentido actual.

Se trataba de un enorme aparato que ocupa todo un sótano en la universidad.

Constaba de 18 000 bulbos, consumía varios KW (kiloVatios) de potencia y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo.

Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Prester Eckert en la Universidad de Pennsylvania, en los Estados Unidos.


La fotografía es de la armada de los Estados Unidos (U.S. Army Photo) y muestra a dos mujeres operando el panel de control principal de la máquina cuando estaba localizada en la escuela Moore.

1949 EDVAC. Primera computadora programable. También fue un prototipo de laboratorio, pero ya incluía en sí diseño las ideas centrales que conforman a las computadoras actuales. Incorporaba las ideas del doctor John von Neumann.

1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la oficina del censo de Estados Unidos.

1953 IBM 701. Para introducir los datos, estos equipos empleaban el concepto de tarjetas perforadas, que había, sido inventada en los años de la revolución industrial (finales del siglo XVIII) por el francés Jacquard y perfeccionado por el estadounidense Hermand Hollerith en 1890.

La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número 1 por su volumen de ventas.

1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de 1960 almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en disco magnético.

Segunda generación de computadoras
Estas computadoras ya no utilizaban bulbos, sino transistores que son mas pequeños y consumen menos electricidad.

La forma de comunicación con estas nuevas computadoras es mediante lenguajes mas avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación.

Esta segunda generación duro pocos años, porque pronto hubo nuevos avances tanto en el hardware como en el software.