La noticia es de hace una semana, la acabo de ver en la web de KDE, y muestra unz par de fotos de lo que han ido avanzando. La noticia original está aquí, aunque yo lo leo por vosotros y hago un resumen de lo que pone y poner las fotos.
Pone un ejemplo de si alguna vez has tenido 10 o más aplicaciones en la barra de tareas, todas a la vez, esperando a que acabe cada una por una (yo 10, 20 y más). Imaginaos: Proceso de impresión, K3b, KAudioCreator, transferencias de archivos en Konqueror, Kopete, KTorrent, mirando el mail en KMail…
Free Image Hosting at www.ImageShack.us
Como podemos ver, en la primera flecha se muestra como tres diálogos se pueden simplificar en sólo unas pequeñas pestañas en una larga (bueno, en este caso no lo es) lista de tareas, dando detalles.
En la segunda flecha, se puede ver más de lo mismo, pero con más detalles, pero aún bastante simplificado de lo que era originalmente.
Esta idea ha salido de un mockup (significan ideas que proponen usuarios para futuras versiones) de Rafael Fernandez Lopez, que desde aquí le doy mis más sinceras felicitaciones por esta magnífica idea.
Sin duda, si esto se llevara a cabo, facilitaría mucho las tareas, daría un aspecto MUY relajado al escritorio y asumiendo que para el usuario que se agobie con un par de ventanas (es un decir, vaya) quede solucionado con esto. Eso sí, nos avisan claramente en el post que sólo es un mockup, y que no representa nada en cuanto a el diseño final de KDE 4.
También nos cuentan que hay un prototipo para hacer estándar las aplicaciones en espera (mejor explicado, cuando cerramos Kopete pero queda en la barra de tareas/tray), que nos ofrecería interoperatibilidad con aplicaciones de GNOME, que sin duda, sería una grata noticia para ambos, todo gracias a DBUS, que es un sistema para ofrecer comunicación entre varias aplicaciones. Aquí la imagen de turno:
Free Image Hosting at www.ImageShack.us
Yo creo que de estas ingeniosas ideas se puede hacer un super-escritorio que merecería una nueva generación para KDE: la cuarta. Realmente estoy ansioso por esperarla.
Podéis comentar, pero porfavor, flames KDE vs. GNOME, si los hay, que no sean subiditos de tono.
sábado, 26 de junio de 2010
jueves, 24 de junio de 2010
Avances de Linux
A poco de comenzar el 2009, aparecen por doquier los balances y análisis del pasado año. Con respecto a lo que ha sucedido con Linux, que no es poco, se han destacado 8 grandes logros e innovaciones en un estudio hecho por Phoronix ( prestigioso portal dedicado a la tecnología y software libre). Aquí les dejamos la lista:
1- KDE 4: la avanzada interfaz gráfica para Linux, ha sufrido una gran renovación e incorporado efectos y características que, según parece, el propio Windows 7 de Microsoft está intentando imitar para tenerlas listas para su lanzamiento.
2-WINE 1.0: luego de 15 años de desarrollo, se presentó la primera versión estable de este programa que permite ejecutar aplicaciones para Windows dentro de Linux. Un logro impresionante.
3-Plugins Java y Adobe Flash para Linux 64bits: estos plugins son fundamentales para la navegación web (permiten ejecutar programas y animaciones en los exploradores web) y adaptados a la tecnología de 64bits, ayudarán a que se aproveche la potencia de los procesadores de 64bits tanto de AMD como de Intel mediante la instalación de Linux en esa plataforma.
4-GEM (Graphics Execution Manager): aunque muy novedoso aún, promete mejorar sustancialmente la forma en que se gestiona el sistema gráfico de los PC.
5-Drivers de Código Abierto: sin duda una de las mejores noticias, ya que grandes marcas como AMD (dueña también de ATI), VIA y otras importantes fabricantes de procesadores, placas y tarjetas de video, han decidido colaborar definitivamente con Linux creando controladores para sus dispositivos que pueden ser modificados y mejorados libremente. La única compañía que se resiste, por ahora, a liberar sus drivers es NVidia, aunque sí permite descargar y utilizar gratuitamente sus controladores para Linux, pero no se puede conocer su código.
6-NetworkManager 0.7: excelente mejora para la configuración de redes en Linux, pudiendo ahora acceder de forma casi automática a redes 3G (como ofrecen las compañías de celulares).
7-Gimp 2.6: la nueva versión del famoso programa libre de edición gráfica (el más directo competidor de Adobe Photoshop) confirma su continuo avance y crecimiento.
8-Virtual Box 2: el software gratuito de virtualización (permite correr otros sistemas operativos dentro de una ventana como si estuvieran en otra computadora) agrega cada vez más características, soportando ahora la aceleración 3D en las tarjetas de video.
Sin duda, hay muchísimos otros avances que merecerían estar en la lista, a nuestro juicio por ejemplo la aparición de computadoras de Escritorio y Notebooks con Linux pre instalado (de fábrica), o la aparición del formato ext4 para unidades de disco, etc...
En definitiva, Linux y el software libre crecen de forma constante y segura. Veremos que nos depara este 2009
1- KDE 4: la avanzada interfaz gráfica para Linux, ha sufrido una gran renovación e incorporado efectos y características que, según parece, el propio Windows 7 de Microsoft está intentando imitar para tenerlas listas para su lanzamiento.
2-WINE 1.0: luego de 15 años de desarrollo, se presentó la primera versión estable de este programa que permite ejecutar aplicaciones para Windows dentro de Linux. Un logro impresionante.
3-Plugins Java y Adobe Flash para Linux 64bits: estos plugins son fundamentales para la navegación web (permiten ejecutar programas y animaciones en los exploradores web) y adaptados a la tecnología de 64bits, ayudarán a que se aproveche la potencia de los procesadores de 64bits tanto de AMD como de Intel mediante la instalación de Linux en esa plataforma.
4-GEM (Graphics Execution Manager): aunque muy novedoso aún, promete mejorar sustancialmente la forma en que se gestiona el sistema gráfico de los PC.
5-Drivers de Código Abierto: sin duda una de las mejores noticias, ya que grandes marcas como AMD (dueña también de ATI), VIA y otras importantes fabricantes de procesadores, placas y tarjetas de video, han decidido colaborar definitivamente con Linux creando controladores para sus dispositivos que pueden ser modificados y mejorados libremente. La única compañía que se resiste, por ahora, a liberar sus drivers es NVidia, aunque sí permite descargar y utilizar gratuitamente sus controladores para Linux, pero no se puede conocer su código.
6-NetworkManager 0.7: excelente mejora para la configuración de redes en Linux, pudiendo ahora acceder de forma casi automática a redes 3G (como ofrecen las compañías de celulares).
7-Gimp 2.6: la nueva versión del famoso programa libre de edición gráfica (el más directo competidor de Adobe Photoshop) confirma su continuo avance y crecimiento.
8-Virtual Box 2: el software gratuito de virtualización (permite correr otros sistemas operativos dentro de una ventana como si estuvieran en otra computadora) agrega cada vez más características, soportando ahora la aceleración 3D en las tarjetas de video.
Sin duda, hay muchísimos otros avances que merecerían estar en la lista, a nuestro juicio por ejemplo la aparición de computadoras de Escritorio y Notebooks con Linux pre instalado (de fábrica), o la aparición del formato ext4 para unidades de disco, etc...
En definitiva, Linux y el software libre crecen de forma constante y segura. Veremos que nos depara este 2009
miércoles, 23 de junio de 2010
Linux para teléfonos móvil
Linux evoluciona hacia la telefonía móvil
Según un artículo publicado ayer por la BBC, está en marcha el desarrollo de una versión del sistema operativo Ubuntu para dispositivos y teléfonos móviles con acceso a Internet. El desarrollo lo realizarán miembros de la comunidad Ubuntu, junto con personal de Intel. El proyecto Ubuntu Mobile and Embedded pretende realizar el lanzamiento inicial de la plataforma de código abierto en octubre del 2007.
Según el director de tecnología de Ubuntu, Matt Zimmerman, son los nuevos dispositivos portátiles –móviles, PDAs, tablet PCs, etc.– con acceso a Internet los que plantean nuevas demandas de software de código abierto, con interfaces gráficas innovadoras y una mejor recepción y gestión energética. De hecho, algunas empresas, como Nokia, ya están utilizando tecnologías open source en algunos de sus productos.
Ubuntu, que ya es popular en portátiles y ordenadores de sobremesa, está basado en Linux y, al contrario que Microsoft, que obtiene dinero con las licencias y el uso de sus productos, el código de Linux es gratuito y libre. Por ello, cualquiera puede modificarlo o desarrollar aplicaciones para él, dando lugar a distintos sistemas operativos o distribuciones, todos ellos basados en Linux.
El acuerdo con Intel para el desarrollo de este sistema operativo para móviles es tan solo uno de los que se han firmado con importantes empresas de tecnología de todo el mundo. En abril de este año, por ejemplo, Ubuntu anunció un acuerdo con Dell, el segundo fabricante de PCs del mundo, para ofrecer algunos de sus ordenadores con el sistema operativo Ubuntu preinstalado.
Según Zimmerman: "Intel está realizando importantes aportaciones de tecnología, personal y experiencia al proyecto". El CEO de Intel, Pul Otellini, ha exhibido recientemente un prototipo de la plataforma para móviles de Ubuntu con dicho sistema.
Intel, que también desea un trozo del pastel del creciente mercado para dispositivos móviles con acceso a Internet, ha respaldado ya anteriormente otro proyecto open source conocido como Gnome Mobile & Embedded Initiative (GMAE), para el desarrollo de aplicaciones para este tipo de dispositivos.
La empresa ha anunciado también sus planes de fabricar un diminuto chip de bajo consumo energético diseñado específicamente para ordenadores portátiles y dispositivos móviles. Según fuentes de Intel, este chip, llamado Silverthorn, tendrá una séptima parte del tamaño de los procesadores convencionales y consumirá tan solo el 10% de la energía requerida por estos.
La nueva plataforma Ubuntu maximizará también la eficacia energética ofreciendo una interfaz gráfica diseñada específicamente para la pequeña pantalla.
La versión final está prevista para octubre de este año.
Según un artículo publicado ayer por la BBC, está en marcha el desarrollo de una versión del sistema operativo Ubuntu para dispositivos y teléfonos móviles con acceso a Internet. El desarrollo lo realizarán miembros de la comunidad Ubuntu, junto con personal de Intel. El proyecto Ubuntu Mobile and Embedded pretende realizar el lanzamiento inicial de la plataforma de código abierto en octubre del 2007.
Según el director de tecnología de Ubuntu, Matt Zimmerman, son los nuevos dispositivos portátiles –móviles, PDAs, tablet PCs, etc.– con acceso a Internet los que plantean nuevas demandas de software de código abierto, con interfaces gráficas innovadoras y una mejor recepción y gestión energética. De hecho, algunas empresas, como Nokia, ya están utilizando tecnologías open source en algunos de sus productos.
Ubuntu, que ya es popular en portátiles y ordenadores de sobremesa, está basado en Linux y, al contrario que Microsoft, que obtiene dinero con las licencias y el uso de sus productos, el código de Linux es gratuito y libre. Por ello, cualquiera puede modificarlo o desarrollar aplicaciones para él, dando lugar a distintos sistemas operativos o distribuciones, todos ellos basados en Linux.
El acuerdo con Intel para el desarrollo de este sistema operativo para móviles es tan solo uno de los que se han firmado con importantes empresas de tecnología de todo el mundo. En abril de este año, por ejemplo, Ubuntu anunció un acuerdo con Dell, el segundo fabricante de PCs del mundo, para ofrecer algunos de sus ordenadores con el sistema operativo Ubuntu preinstalado.
Según Zimmerman: "Intel está realizando importantes aportaciones de tecnología, personal y experiencia al proyecto". El CEO de Intel, Pul Otellini, ha exhibido recientemente un prototipo de la plataforma para móviles de Ubuntu con dicho sistema.
Intel, que también desea un trozo del pastel del creciente mercado para dispositivos móviles con acceso a Internet, ha respaldado ya anteriormente otro proyecto open source conocido como Gnome Mobile & Embedded Initiative (GMAE), para el desarrollo de aplicaciones para este tipo de dispositivos.
La empresa ha anunciado también sus planes de fabricar un diminuto chip de bajo consumo energético diseñado específicamente para ordenadores portátiles y dispositivos móviles. Según fuentes de Intel, este chip, llamado Silverthorn, tendrá una séptima parte del tamaño de los procesadores convencionales y consumirá tan solo el 10% de la energía requerida por estos.
La nueva plataforma Ubuntu maximizará también la eficacia energética ofreciendo una interfaz gráfica diseñada específicamente para la pequeña pantalla.
La versión final está prevista para octubre de este año.
Latinoamérica: avances y retrocesos del Software Libre
¿Qué países están más interesados en el Software Libre en América Latina? Desde un punto de vista político, deberíamos hablar de Venezuela, que plantea una migración total a Software Libre (GNU/Linux y amigos), o de Brasil, Chile, Argentina, aunque en mucho menor grado. Cuba sería un gran ejemplo si tenemos en cuenta el Caribe en nuestro recuento mental a esta altura del año.
Pero este artículo trata sobre otra cosa (un tanto más trivial): sobre el sitio que todos los que usan GNU/Linux han visitado alguna vez, el sitio más famoso del mundo en cuanto a distribuciones de software libre: Distrowatch.
Hay que reconocerlo: por más que la forma en que Distrowatch genera el ranking de distribuciones es cuestionable, por experiencia personal sé que cuando Musix (distribución que co-dirijo junto con Gilberto Borges) sale en la primer plana de distrowatch las visitas al sitio se multiplican por miles y miles, alcanzando 6000 visitas en un día... entonces es obvio que Distrowatch es un portal Web muy visitado, por lo cual sirve como termómetro para medir varias cuestiones que hacen al mundo informático libre.
Recientemente apareció un informe más que interesante en Distrowatch sobre los ingresos a su Web desde diferentes países de Latinoamérica durante 2007.
Las estadísticas muestran además el crecimiento o decrecimiento comparando los primeros 7 meses del año 2006 con estos meses que pasaron del 2007, y Brasil gana por lejos.
Veamos la lista para lo que va del 2007:
1. Brasil (268.821)
2. México (114.682)
3. Argentina (100.836)
4. Venezuela (37.878)
5. Chile (37.439)
6. Puerto Rico (27.819)
7. Colombia (26.158)
8. Perú (15.569)
9. Guatemala (11.887)
10. Uruguay (11.790)
11. República Dominicana (11.734)
12. Costa Rica (9.912)
13. El Salvador (7.233)
14. Ecuador (7.158)
15. Panamá (6.718)
De año a año, Brasil (que por otro lado es el tercer mercado mundial informático) creció un 50.8% en materia de visitantes al sitio, México un 24.1%, Argentina un 18.7%, Venezuela un 26.5% y Chile un 28.6%.
Es claro que las estadísticas parecen tener relación con las políticas estatales de los diferentes países: no sorprende el alto crecimiento de Venezuela y Brasil, dado que en esos países la migración hacia software libre es una realidad.
También hay que destacar lo lejos que están los primeros 3 puestos del 4to puesto: Brasil, México y Argentina, y a su vez lo lejos que está Brasil del segundo puesto, siendo que sus 268.821 visitas representan más del doble que las visitas obtenidas desde México, con 114.682. También es notable el retroceso de Costa Rica en un 35%.
En cuanto al ranking de distribuciones GNU/Linux, la distro brasileña Kurumin está en este momento en el puesto Nº 100, y de las argentinas la única presente es Musix, en el puesto Nº 51. (Si alguien conoce otras distros latinoamericanas dentro de los primeros 100 lugares, por favor, informar).
Pero este artículo trata sobre otra cosa (un tanto más trivial): sobre el sitio que todos los que usan GNU/Linux han visitado alguna vez, el sitio más famoso del mundo en cuanto a distribuciones de software libre: Distrowatch.
Hay que reconocerlo: por más que la forma en que Distrowatch genera el ranking de distribuciones es cuestionable, por experiencia personal sé que cuando Musix (distribución que co-dirijo junto con Gilberto Borges) sale en la primer plana de distrowatch las visitas al sitio se multiplican por miles y miles, alcanzando 6000 visitas en un día... entonces es obvio que Distrowatch es un portal Web muy visitado, por lo cual sirve como termómetro para medir varias cuestiones que hacen al mundo informático libre.
Recientemente apareció un informe más que interesante en Distrowatch sobre los ingresos a su Web desde diferentes países de Latinoamérica durante 2007.
Las estadísticas muestran además el crecimiento o decrecimiento comparando los primeros 7 meses del año 2006 con estos meses que pasaron del 2007, y Brasil gana por lejos.
Veamos la lista para lo que va del 2007:
1. Brasil (268.821)
2. México (114.682)
3. Argentina (100.836)
4. Venezuela (37.878)
5. Chile (37.439)
6. Puerto Rico (27.819)
7. Colombia (26.158)
8. Perú (15.569)
9. Guatemala (11.887)
10. Uruguay (11.790)
11. República Dominicana (11.734)
12. Costa Rica (9.912)
13. El Salvador (7.233)
14. Ecuador (7.158)
15. Panamá (6.718)
De año a año, Brasil (que por otro lado es el tercer mercado mundial informático) creció un 50.8% en materia de visitantes al sitio, México un 24.1%, Argentina un 18.7%, Venezuela un 26.5% y Chile un 28.6%.
Es claro que las estadísticas parecen tener relación con las políticas estatales de los diferentes países: no sorprende el alto crecimiento de Venezuela y Brasil, dado que en esos países la migración hacia software libre es una realidad.
También hay que destacar lo lejos que están los primeros 3 puestos del 4to puesto: Brasil, México y Argentina, y a su vez lo lejos que está Brasil del segundo puesto, siendo que sus 268.821 visitas representan más del doble que las visitas obtenidas desde México, con 114.682. También es notable el retroceso de Costa Rica en un 35%.
En cuanto al ranking de distribuciones GNU/Linux, la distro brasileña Kurumin está en este momento en el puesto Nº 100, y de las argentinas la única presente es Musix, en el puesto Nº 51. (Si alguien conoce otras distros latinoamericanas dentro de los primeros 100 lugares, por favor, informar).
martes, 15 de junio de 2010
Generador de Movimientos
La forma inicial de programar un generador de movimientos fue el generar mediante fórmulas matemáticas los movimientos legales de cada pieza sobre el tablero, obteniendo todas las posibilidades con tal de entregárselas como una lista al software de búsqueda. Esta propuesta fue mencionada por vez primera en el paper de Shannon [68] y se aplicó a prácticamente todos los programas de la época.
La idea inicial fue el que el programa generara sólo los mejores movimientos con tal de reducir drásticamente el árbol de variantes (estrategia "B", según la nomenclatura dada por Shannon) pero los resultados distaron de ser positivos puesto que el problema principal relacionado con este proceso fue que en las búsquedas en profundidad esta forma de generar los movimientos tomaba un tiempo excesivo, lo cual hacía muy lento el proceso global, motivo por el cual se buscaron otras formas de programar la generación de movidas en base a operaciones que la computadora pudiese realizar más rápidamente.
Sólo hasta principios de 1970 (gracias a la presencia de hardware y ambientes de desarrollo de mayor capacidad) se utilizó la técnica de los mapas de bits (bit-boards)la cual significó un gran avance en este proceso del juego de la máquina dado que se redujo la complejidad de operaciones a aquellas que son básicas para la máquina. A pesar de este avance, era clara la necesidad de implementar fuera del software esta función del programa, dado que la necesidad de hacer búsquedas más rápidas y profundas se basaba en un generador de alta velocidad, cosa que era muy difícil lograr a nivel de hardware.
Las mejoras en esta función del programa vinieron principalmente del lado del desarrollo de hardware específico para la generación de movimientos. En 1977 el programa "Belle" fue el primero en utilizar circuitos digitales para la generación de movimientos logrando aumentar su velocidad de búsqueda de 200 a 160.000 posiciones por segundo. El generador utilizado en Belle sirvió como punto de partida para máquinas más poderosas. El computador que derrotó a Kasparov en 1997, DeepBlue, tenía 30 procesadores IBM RS-6000 SP acoplados a 480 chips. Esta máquina fue capaz de lograr velocidades computacionales de 200 millones de posiciones por segundo.
Las característica principal de estos generadores a nivel de Hardware es el poder caracterizar a las casillas de origen y destino mediante transmisores y receptores respectivamente, para luego generar mediante un árbol de prioridades los movimientos ordenados de acuerdo a criterios de capturas, jaques, etc. [38]. La principal ventaja entre el generador de movimientos de DeepBlue y BELLE es que el primero solucionó el problema de generar en primer orden los movimientos de jaque.
En la actualidad la utilización de mapas de bits es prácticamente universal en todos los programas de ajedrez. Las mejoras se ven principalmente en los tipos de mapas generados de acuerdo al tipo de movimientos buscados (reglas de mapas de bits). El principal desarrollo en este tema es a nivel de hardware en donde los avances se han visto en el orden de jugadas entregado en la generación de los movimientos. En el último año se han desarrollado también tarjetas de hardware específicas para implementación en computadoras personales (Field Programable Gate Arrays) las cuales han sido utilizadas en forma experimental
La idea inicial fue el que el programa generara sólo los mejores movimientos con tal de reducir drásticamente el árbol de variantes (estrategia "B", según la nomenclatura dada por Shannon) pero los resultados distaron de ser positivos puesto que el problema principal relacionado con este proceso fue que en las búsquedas en profundidad esta forma de generar los movimientos tomaba un tiempo excesivo, lo cual hacía muy lento el proceso global, motivo por el cual se buscaron otras formas de programar la generación de movidas en base a operaciones que la computadora pudiese realizar más rápidamente.
Sólo hasta principios de 1970 (gracias a la presencia de hardware y ambientes de desarrollo de mayor capacidad) se utilizó la técnica de los mapas de bits (bit-boards)la cual significó un gran avance en este proceso del juego de la máquina dado que se redujo la complejidad de operaciones a aquellas que son básicas para la máquina. A pesar de este avance, era clara la necesidad de implementar fuera del software esta función del programa, dado que la necesidad de hacer búsquedas más rápidas y profundas se basaba en un generador de alta velocidad, cosa que era muy difícil lograr a nivel de hardware.
Las mejoras en esta función del programa vinieron principalmente del lado del desarrollo de hardware específico para la generación de movimientos. En 1977 el programa "Belle" fue el primero en utilizar circuitos digitales para la generación de movimientos logrando aumentar su velocidad de búsqueda de 200 a 160.000 posiciones por segundo. El generador utilizado en Belle sirvió como punto de partida para máquinas más poderosas. El computador que derrotó a Kasparov en 1997, DeepBlue, tenía 30 procesadores IBM RS-6000 SP acoplados a 480 chips. Esta máquina fue capaz de lograr velocidades computacionales de 200 millones de posiciones por segundo.
Las característica principal de estos generadores a nivel de Hardware es el poder caracterizar a las casillas de origen y destino mediante transmisores y receptores respectivamente, para luego generar mediante un árbol de prioridades los movimientos ordenados de acuerdo a criterios de capturas, jaques, etc. [38]. La principal ventaja entre el generador de movimientos de DeepBlue y BELLE es que el primero solucionó el problema de generar en primer orden los movimientos de jaque.
En la actualidad la utilización de mapas de bits es prácticamente universal en todos los programas de ajedrez. Las mejoras se ven principalmente en los tipos de mapas generados de acuerdo al tipo de movimientos buscados (reglas de mapas de bits). El principal desarrollo en este tema es a nivel de hardware en donde los avances se han visto en el orden de jugadas entregado en la generación de los movimientos. En el último año se han desarrollado también tarjetas de hardware específicas para implementación en computadoras personales (Field Programable Gate Arrays) las cuales han sido utilizadas en forma experimental
Generador de Movimientos
La forma inicial de programar un generador de movimientos fue el generar mediante fórmulas matemáticas los movimientos legales de cada pieza sobre el tablero, obteniendo todas las posibilidades con tal de entregárselas como una lista al software de búsqueda. Esta propuesta fue mencionada por vez primera en el paper de Shannon [68] y se aplicó a prácticamente todos los programas de la época.
La idea inicial fue el que el programa generara sólo los mejores movimientos con tal de reducir drásticamente el árbol de variantes (estrategia "B", según la nomenclatura dada por Shannon) pero los resultados distaron de ser positivos puesto que el problema principal relacionado con este proceso fue que en las búsquedas en profundidad esta forma de generar los movimientos tomaba un tiempo excesivo, lo cual hacía muy lento el proceso global, motivo por el cual se buscaron otras formas de programar la generación de movidas en base a operaciones que la computadora pudiese realizar más rápidamente.
Sólo hasta principios de 1970 (gracias a la presencia de hardware y ambientes de desarrollo de mayor capacidad) se utilizó la técnica de los mapas de bits (bit-boards)la cual significó un gran avance en este proceso del juego de la máquina dado que se redujo la complejidad de operaciones a aquellas que son básicas para la máquina. A pesar de este avance, era clara la necesidad de implementar fuera del software esta función del programa, dado que la necesidad de hacer búsquedas más rápidas y profundas se basaba en un generador de alta velocidad, cosa que era muy difícil lograr a nivel de hardware.
Las mejoras en esta función del programa vinieron principalmente del lado del desarrollo de hardware específico para la generación de movimientos. En 1977 el programa "Belle" fue el primero en utilizar circuitos digitales para la generación de movimientos logrando aumentar su velocidad de búsqueda de 200 a 160.000 posiciones por segundo. El generador utilizado en Belle sirvió como punto de partida para máquinas más poderosas. El computador que derrotó a Kasparov en 1997, DeepBlue, tenía 30 procesadores IBM RS-6000 SP acoplados a 480 chips. Esta máquina fue capaz de lograr velocidades computacionales de 200 millones de posiciones por segundo.
Las característica principal de estos generadores a nivel de Hardware es el poder caracterizar a las casillas de origen y destino mediante transmisores y receptores respectivamente, para luego generar mediante un árbol de prioridades los movimientos ordenados de acuerdo a criterios de capturas, jaques, etc. [38]. La principal ventaja entre el generador de movimientos de DeepBlue y BELLE es que el primero solucionó el problema de generar en primer orden los movimientos de jaque.
En la actualidad la utilización de mapas de bits es prácticamente universal en todos los programas de ajedrez. Las mejoras se ven principalmente en los tipos de mapas generados de acuerdo al tipo de movimientos buscados (reglas de mapas de bits). El principal desarrollo en este tema es a nivel de hardware en donde los avances se han visto en el orden de jugadas entregado en la generación de los movimientos. En el último año se han desarrollado también tarjetas de hardware específicas para implementación en computadoras personales (Field Programable Gate Arrays) las cuales han sido utilizadas en forma experimental
La idea inicial fue el que el programa generara sólo los mejores movimientos con tal de reducir drásticamente el árbol de variantes (estrategia "B", según la nomenclatura dada por Shannon) pero los resultados distaron de ser positivos puesto que el problema principal relacionado con este proceso fue que en las búsquedas en profundidad esta forma de generar los movimientos tomaba un tiempo excesivo, lo cual hacía muy lento el proceso global, motivo por el cual se buscaron otras formas de programar la generación de movidas en base a operaciones que la computadora pudiese realizar más rápidamente.
Sólo hasta principios de 1970 (gracias a la presencia de hardware y ambientes de desarrollo de mayor capacidad) se utilizó la técnica de los mapas de bits (bit-boards)la cual significó un gran avance en este proceso del juego de la máquina dado que se redujo la complejidad de operaciones a aquellas que son básicas para la máquina. A pesar de este avance, era clara la necesidad de implementar fuera del software esta función del programa, dado que la necesidad de hacer búsquedas más rápidas y profundas se basaba en un generador de alta velocidad, cosa que era muy difícil lograr a nivel de hardware.
Las mejoras en esta función del programa vinieron principalmente del lado del desarrollo de hardware específico para la generación de movimientos. En 1977 el programa "Belle" fue el primero en utilizar circuitos digitales para la generación de movimientos logrando aumentar su velocidad de búsqueda de 200 a 160.000 posiciones por segundo. El generador utilizado en Belle sirvió como punto de partida para máquinas más poderosas. El computador que derrotó a Kasparov en 1997, DeepBlue, tenía 30 procesadores IBM RS-6000 SP acoplados a 480 chips. Esta máquina fue capaz de lograr velocidades computacionales de 200 millones de posiciones por segundo.
Las característica principal de estos generadores a nivel de Hardware es el poder caracterizar a las casillas de origen y destino mediante transmisores y receptores respectivamente, para luego generar mediante un árbol de prioridades los movimientos ordenados de acuerdo a criterios de capturas, jaques, etc. [38]. La principal ventaja entre el generador de movimientos de DeepBlue y BELLE es que el primero solucionó el problema de generar en primer orden los movimientos de jaque.
En la actualidad la utilización de mapas de bits es prácticamente universal en todos los programas de ajedrez. Las mejoras se ven principalmente en los tipos de mapas generados de acuerdo al tipo de movimientos buscados (reglas de mapas de bits). El principal desarrollo en este tema es a nivel de hardware en donde los avances se han visto en el orden de jugadas entregado en la generación de los movimientos. En el último año se han desarrollado también tarjetas de hardware específicas para implementación en computadoras personales (Field Programable Gate Arrays) las cuales han sido utilizadas en forma experimental
Sistemas Multiprocesadores
A inicios de 1981 los sistemas de multiprocesadores fueron introducidos en máquinas que jugaban al ajedrez. El objetivo inicial era lograr un aumento de la velocidad de proceso en un factor de 81#81 veces con 81#81 procesadores. El problema principal de este tipo de desarrollo fue el cómo dividir el árbol de búsqueda de variantes con tal de mantener a todos los procesadores ocupados en todo el tiempo de búsqueda evitando además búsqueda redundante.
Otro problema era la realización de debugging en este tipo de programas. Los procesadores funcionan en forma asíncrona y eventos que ocurren primero en un procesador y luego en otro pueden suceder en otro orden en otra simulación.
El programa OSTRICH fue el primero en participar en una competencia oficial de computadoras utilizando esta tecnología. Cinco computadoras serie Data General 16-bit Nova estaban conectadas mediante un paquete de comunicación de alta velocidad. En años subsiguientes 8 computadoras DG fueron utilizadas logrando un incremento de la velocidad de cálculo en un orden 5. Otros programas famosos que utilizaron multiproceso fueron CRAYBLITZ (1983 y 1984, procesador CRAY X-MP, 2 y 4 procesadores), CHESS CHALLENGER (1986, 20 microprocesadores 8086) y Deep Thought (1989, 3 procesadores de tecnología SUN y VLSI). DeepBlue para su match contra Kasparov utilizó un total de 2 frames RS6000 SP albergando 15 computadoras RS/6000 cada uno. Cada nodo contenía dos circuitos de ajedrez con 8 procesadores cada uno, lo que otorga en total 8x2x15x2 = 480 procesadores en el sistema completo.
Otra aplicación interesante de las máquinas multiprocesadores fue realizada por Thompson y Stiller a mediados de los 70, quienes desarrollaron mediante este tipo de hardware las bases de datos de finales para computadoras de ajedrez [71]. El procedimiento de sincronización y búsqueda con multiprocesadores se encuentra bastante detallado en [14]
Otro problema era la realización de debugging en este tipo de programas. Los procesadores funcionan en forma asíncrona y eventos que ocurren primero en un procesador y luego en otro pueden suceder en otro orden en otra simulación.
El programa OSTRICH fue el primero en participar en una competencia oficial de computadoras utilizando esta tecnología. Cinco computadoras serie Data General 16-bit Nova estaban conectadas mediante un paquete de comunicación de alta velocidad. En años subsiguientes 8 computadoras DG fueron utilizadas logrando un incremento de la velocidad de cálculo en un orden 5. Otros programas famosos que utilizaron multiproceso fueron CRAYBLITZ (1983 y 1984, procesador CRAY X-MP, 2 y 4 procesadores), CHESS CHALLENGER (1986, 20 microprocesadores 8086) y Deep Thought (1989, 3 procesadores de tecnología SUN y VLSI). DeepBlue para su match contra Kasparov utilizó un total de 2 frames RS6000 SP albergando 15 computadoras RS/6000 cada uno. Cada nodo contenía dos circuitos de ajedrez con 8 procesadores cada uno, lo que otorga en total 8x2x15x2 = 480 procesadores en el sistema completo.
Otra aplicación interesante de las máquinas multiprocesadores fue realizada por Thompson y Stiller a mediados de los 70, quienes desarrollaron mediante este tipo de hardware las bases de datos de finales para computadoras de ajedrez [71]. El procedimiento de sincronización y búsqueda con multiprocesadores se encuentra bastante detallado en [14]
jueves, 10 de junio de 2010
Audio y tinta digital:
Imagina que estás en una reunión, tomando algunos apuntes de la conversación en una aplicación que captura tu letra manuscrita, bocetos, y garabatos, como un "digital ink" (o tinta digital) y adjunta dichas notas a tu asistente electrónico. Luego, mientras revisas tu agenda, con solo presionar un botón puedes llamar a las notas, y cliquear sobre cualquier parte del texto para oir una reproducción grabada de la charla. La tinta digital junto con las grabaciones de audio ya existen. Lo único por lo que hay que esperar es que alguien las incluya dentro de tu agenda electrónica para que puedan utilizarse.
--------------------------------------------------------------------------------
PCs seran mas faciles de utilizar
El nuevo mundo.... Puede la nueva generación de dispositivos especiales asegurar que las PCs serán más fáciles de utilizar? Quizas si. La mayoría de las aplicaciones especiales para Windows lucen hoy en día una serie de ítems en sus menús, con varios botones o barras de herramientas, dificultando el desarrollo de algunas tareas para un usuario inexperto. Si la misma generación de ingenieros obsesionados, quienes construyeron las computadoras actuales diseñan las computadoras de la próxima generación, es posible que los controles escasos causen una mayor sobrecarga de información de la que tenemos actualmente. Lo destacable, es que los diseñadores de los nuevos productos necesitan focalizarse en los clientes y en sus necesidades. Algunos afirman que "la revolución de la información no está basada en la tecnología, sino en la manera en que la gente habla con otras personas, osea en el lenguaje".
--------------------------------------------------------------------------------
Las computadoras del 2010
serán mucho más atractivas de lo que son las actuales, estarán en los bolsillos, en los relojes, y en nuestros anteojos. Independientemente de si se usa Windows 2010, Linux, o algún sistema operativo que aún se está desarrollando, una cosa es completamente segura: utilizarlos será mucho mas sencillo y útil
--------------------------------------------------------------------------------
PCs seran mas faciles de utilizar
El nuevo mundo.... Puede la nueva generación de dispositivos especiales asegurar que las PCs serán más fáciles de utilizar? Quizas si. La mayoría de las aplicaciones especiales para Windows lucen hoy en día una serie de ítems en sus menús, con varios botones o barras de herramientas, dificultando el desarrollo de algunas tareas para un usuario inexperto. Si la misma generación de ingenieros obsesionados, quienes construyeron las computadoras actuales diseñan las computadoras de la próxima generación, es posible que los controles escasos causen una mayor sobrecarga de información de la que tenemos actualmente. Lo destacable, es que los diseñadores de los nuevos productos necesitan focalizarse en los clientes y en sus necesidades. Algunos afirman que "la revolución de la información no está basada en la tecnología, sino en la manera en que la gente habla con otras personas, osea en el lenguaje".
--------------------------------------------------------------------------------
Las computadoras del 2010
serán mucho más atractivas de lo que son las actuales, estarán en los bolsillos, en los relojes, y en nuestros anteojos. Independientemente de si se usa Windows 2010, Linux, o algún sistema operativo que aún se está desarrollando, una cosa es completamente segura: utilizarlos será mucho mas sencillo y útil
Olor Por Internet
Ya es posible el olor por Internet Las tecnologías que permiten la difusión de olor a través de Internet ya son algo real, aunque existen pocas empresas que las fabriquen, estas apuestan por ofrecer servicios tangibles, es decir, que el internauta reciba a través de su computadora una sens Las tecnologías que permiten la difusión de olor a través de Internet ya son algo real, aunque existen pocas empresas que las fabriquen. Estos dispositivos son muy adecuados para el sector de la perfumería, aunque su desarrollo se ha extendido a las imágenes, el correo electrónico, y otros dispositivos que son tanto la computadora personal como el teléfono móvil. Hay empresas que, incluso, han utilizado esta tecnología en el campo médico para detectar enfermedades mentales. En los negocios que se están creando en torno a Internet, hay empresas que apuestan por ofrecer servicios tangibles, es decir, que el internauta reciba a través de su computadora una sensación real más allá de la vista. Un ejemplo de ello son las compañías que están desarrollando una tecnología que permitirá transmitir olor a través de la Red. Las empresas pioneras de la investigación son la californiana DigiScents, TriSenx, de Georgia, AromaJet, de Texas y SenseIt Technologies de Israel, y sus dispositivos ya pueden adquirirse. Su funcionamiento se basa en dos aparatos principales, un sintetizador de olor, que es capaz de recoger la fragancia y transformarla en una señal digital. Ésta es recogida por un receptor que, al igual que una impresora, reproduce el olor original. Las personas que deseen percibir los olores de los sitios visitados podrán hacerlo conectando el "sintetizador de olores" a su computadora. En vez de tinta, este dispositivo estará cargado con aceites o esencias primarias, capaces de reproducir millones de fragancias diferentes. Fusionaron cine con olor Todas las empresas anteriormente citadas tienen ya sus propios aparatos, aunque la más destacada es DigiScents. Esta firma es creadora de la denominada "Tecnología aromática digital" iSmell con una serie de aplicaciones que permiten incorporar olor a una película, un correo electrónico o a una tienda virtual. Estas herramientas ya están disponibles en el mercado. La empresa fue creada en 1999 por los norteamericanos Bellensons y Smith. En un principio, estas tecnologías se pensaron para la adecuación del sector de la perfumería en Internet, pero las empresas están desarrollando otras posibilidades. Por ejemplo, los creadores de iSmell fusionaron las imágenes de la película "El Mago de Oz" con olores. Ya no sólo es posible ver la imagen sino, también, es posible oler los cedros del bosque. Esta no es la primera vez que se piensa en desprender olores de acuerdo con lo que se ve. A finales de la década de los 50, se experimentó este estudio con los sistemas como Smell-o-Vision y Aromarama, que consistían en colocar los respectivos olores de cada película en unas pequeñas cajitas situadas debajo de las butacas de cada sala de cine, para luego sacarlas en el momento adecuado. De esta manera la sala quedaba invadida por los olores que desprendían las imágenes.
miércoles, 9 de junio de 2010
Procesadores de mayor velocidad
La velocidad de unidades de procesamiento se ha incrementado dramáticamente debido principalmente a la evolución de la tecnología de semiconductores. Las computadoras han progresado desde ejecutar aproximadamente 10.000 instrucciones por segundo (en la época de los primeros programas) a aproximadamente 1.000.000.000 en la actualidad. El aumento de velocidad ha sido del orden de magnitud de 100.000 veces. Imaginemos comparativamente si la velocidad de transporte hubiese aumentado en esa magnitud durante el mismo periodo de tiempo. Los aviones volarían a 100.000.000 millas por hora; un viaje al sol tomaría cerca de 1 hora de vuelo y un viaje a la estrella más cercana, Alpha Centauri, la cual está a 4,5 años luz de distancia, tomaría cerca de sólo 70 años.
En los años venideros puede esperarse un continuo crecimiento en la velocidad de los procesadores siendo razonable esperar que en los próximos 10 años el incremento será nuevamente cercano a las 100 veces. Ya a inicios del año 2000 las computadoras son 10.000.000 de veces más rápidas que las utilizadas en los primeros programas de ajedrez. Un viaje a Alpha Centauri tomaría ahora menos de 1 año!. Cada incremento en 6 veces la velocidad de la máquina le otorga la posibilidad de realizar una búsqueda en aproximadamente 1 nivel extra de profundidad. Un incremento de 100 veces otorga aproximadamente 2,5 niveles extras de profundidad. Con DEEP THOUGHT realizando búsquedas en una profundidad cercana a los 9 o 10 niveles en el año 1989 no fue sorpresa el hecho de que DeepBlue superara el nivel de profundidad de 12 movimientos en 1997.
El efecto del incremento en la velocidad del hardware en la performance de los programas de ajedrez ha sido estudiado durante varios años. La historia ha demostrado que los ratings Elo de las máquinas han aumentado cerca de 200 puntos por cada nivel adicional de búsqueda logrado. Esto se muestra en la tabla [*], donde las profundidades de búsqueda, años y ratings han sido levemente redondeados con tal de demostrar el efecto de los "200 puntos". Lo que la tabla no muestra es que muchas otras mejoras han sido realizadas a los programas con tal de lograr búsquedas con mayor profundidad, y que correr un programa en una máquina 6 veces más veloz no aumenta directamente la fuerza del programa en 200 puntos de rating Elo.
A fines de los 70, Thompson hizo jugar a varias versiones de BELLE con tal de medir la performance como función sólo de la velocidad con tal de medir los efectos de otras mejoras. El midió la performance como función de la profundidad de búsqueda, pero velocidad y profundidad son parámetros íntimamente relacionados. En sus experimentos, Thompson varió la profundidad de búsqueda desde 3 a 9 niveles. Sus resultados demostraron que para niveles de rating entre 1400 y 2000 existían 200 puntos de diferencia por cada nivel extra de profundidad. Sin embargo, para ratings por sobre los 2000 puntos y con búsquedas sobre los 7 movimientos, existía un decremento en los 200 puntos teóricos de diferencia (ver tabla [*]). Un estudio posterior de Newborn, el cual consideró búsquedas entre 3 y 13 movimientos llegó a la misma observación, pero adicionalmente demostró que los ratings incrementan a medida que la búsqueda también aumenta.
En los años venideros puede esperarse un continuo crecimiento en la velocidad de los procesadores siendo razonable esperar que en los próximos 10 años el incremento será nuevamente cercano a las 100 veces. Ya a inicios del año 2000 las computadoras son 10.000.000 de veces más rápidas que las utilizadas en los primeros programas de ajedrez. Un viaje a Alpha Centauri tomaría ahora menos de 1 año!. Cada incremento en 6 veces la velocidad de la máquina le otorga la posibilidad de realizar una búsqueda en aproximadamente 1 nivel extra de profundidad. Un incremento de 100 veces otorga aproximadamente 2,5 niveles extras de profundidad. Con DEEP THOUGHT realizando búsquedas en una profundidad cercana a los 9 o 10 niveles en el año 1989 no fue sorpresa el hecho de que DeepBlue superara el nivel de profundidad de 12 movimientos en 1997.
El efecto del incremento en la velocidad del hardware en la performance de los programas de ajedrez ha sido estudiado durante varios años. La historia ha demostrado que los ratings Elo de las máquinas han aumentado cerca de 200 puntos por cada nivel adicional de búsqueda logrado. Esto se muestra en la tabla [*], donde las profundidades de búsqueda, años y ratings han sido levemente redondeados con tal de demostrar el efecto de los "200 puntos". Lo que la tabla no muestra es que muchas otras mejoras han sido realizadas a los programas con tal de lograr búsquedas con mayor profundidad, y que correr un programa en una máquina 6 veces más veloz no aumenta directamente la fuerza del programa en 200 puntos de rating Elo.
A fines de los 70, Thompson hizo jugar a varias versiones de BELLE con tal de medir la performance como función sólo de la velocidad con tal de medir los efectos de otras mejoras. El midió la performance como función de la profundidad de búsqueda, pero velocidad y profundidad son parámetros íntimamente relacionados. En sus experimentos, Thompson varió la profundidad de búsqueda desde 3 a 9 niveles. Sus resultados demostraron que para niveles de rating entre 1400 y 2000 existían 200 puntos de diferencia por cada nivel extra de profundidad. Sin embargo, para ratings por sobre los 2000 puntos y con búsquedas sobre los 7 movimientos, existía un decremento en los 200 puntos teóricos de diferencia (ver tabla [*]). Un estudio posterior de Newborn, el cual consideró búsquedas entre 3 y 13 movimientos llegó a la misma observación, pero adicionalmente demostró que los ratings incrementan a medida que la búsqueda también aumenta.
martes, 8 de junio de 2010
Sistemas Multiprocesadores
A inicios de 1981 los sistemas de multiprocesadores fueron introducidos en máquinas que jugaban al ajedrez. El objetivo inicial era lograr un aumento de la velocidad de proceso en un factor de 81#81 veces con 81#81 procesadores. El problema principal de este tipo de desarrollo fue el cómo dividir el árbol de búsqueda de variantes con tal de mantener a todos los procesadores ocupados en todo el tiempo de búsqueda evitando además búsqueda redundante.
Otro problema era la realización de debugging en este tipo de programas. Los procesadores funcionan en forma asíncrona y eventos que ocurren primero en un procesador y luego en otro pueden suceder en otro orden en otra simulación.
El programa OSTRICH fue el primero en participar en una competencia oficial de computadoras utilizando esta tecnología. Cinco computadoras serie Data General 16-bit Nova estaban conectadas mediante un paquete de comunicación de alta velocidad. En años subsiguientes 8 computadoras DG fueron utilizadas logrando un incremento de la velocidad de cálculo en un orden 5. Otros programas famosos que utilizaron multiproceso fueron CRAYBLITZ (1983 y 1984, procesador CRAY X-MP, 2 y 4 procesadores), CHESS CHALLENGER (1986, 20 microprocesadores 8086) y Deep Thought (1989, 3 procesadores de tecnología SUN y VLSI). DeepBlue para su match contra Kasparov utilizó un total de 2 frames RS6000 SP albergando 15 computadoras RS/6000 cada uno. Cada nodo contenía dos circuitos de ajedrez con 8 procesadores cada uno, lo que otorga en total 8x2x15x2 = 480 procesadores en el sistema completo.
Otra aplicación interesante de las máquinas multiprocesadores fue realizada por Thompson y Stiller a mediados de los 70, quienes desarrollaron mediante este tipo de hardware las bases de datos de finales para computadoras de ajedrez [71]. El procedimiento de sincronización y búsqueda con multiprocesadores se encuentra bastante detallado en [14]
Otro problema era la realización de debugging en este tipo de programas. Los procesadores funcionan en forma asíncrona y eventos que ocurren primero en un procesador y luego en otro pueden suceder en otro orden en otra simulación.
El programa OSTRICH fue el primero en participar en una competencia oficial de computadoras utilizando esta tecnología. Cinco computadoras serie Data General 16-bit Nova estaban conectadas mediante un paquete de comunicación de alta velocidad. En años subsiguientes 8 computadoras DG fueron utilizadas logrando un incremento de la velocidad de cálculo en un orden 5. Otros programas famosos que utilizaron multiproceso fueron CRAYBLITZ (1983 y 1984, procesador CRAY X-MP, 2 y 4 procesadores), CHESS CHALLENGER (1986, 20 microprocesadores 8086) y Deep Thought (1989, 3 procesadores de tecnología SUN y VLSI). DeepBlue para su match contra Kasparov utilizó un total de 2 frames RS6000 SP albergando 15 computadoras RS/6000 cada uno. Cada nodo contenía dos circuitos de ajedrez con 8 procesadores cada uno, lo que otorga en total 8x2x15x2 = 480 procesadores en el sistema completo.
Otra aplicación interesante de las máquinas multiprocesadores fue realizada por Thompson y Stiller a mediados de los 70, quienes desarrollaron mediante este tipo de hardware las bases de datos de finales para computadoras de ajedrez [71]. El procedimiento de sincronización y búsqueda con multiprocesadores se encuentra bastante detallado en [14]
Sistemas Multiprocesadores
A inicios de 1981 los sistemas de multiprocesadores fueron introducidos en máquinas que jugaban al ajedrez. El objetivo inicial era lograr un aumento de la velocidad de proceso en un factor de 81#81 veces con 81#81 procesadores. El problema principal de este tipo de desarrollo fue el cómo dividir el árbol de búsqueda de variantes con tal de mantener a todos los procesadores ocupados en todo el tiempo de búsqueda evitando además búsqueda redundante.
Otro problema era la realización de debugging en este tipo de programas. Los procesadores funcionan en forma asíncrona y eventos que ocurren primero en un procesador y luego en otro pueden suceder en otro orden en otra simulación.
El programa OSTRICH fue el primero en participar en una competencia oficial de computadoras utilizando esta tecnología. Cinco computadoras serie Data General 16-bit Nova estaban conectadas mediante un paquete de comunicación de alta velocidad. En años subsiguientes 8 computadoras DG fueron utilizadas logrando un incremento de la velocidad de cálculo en un orden 5. Otros programas famosos que utilizaron multiproceso fueron CRAYBLITZ (1983 y 1984, procesador CRAY X-MP, 2 y 4 procesadores), CHESS CHALLENGER (1986, 20 microprocesadores 8086) y Deep Thought (1989, 3 procesadores de tecnología SUN y VLSI). DeepBlue para su match contra Kasparov utilizó un total de 2 frames RS6000 SP albergando 15 computadoras RS/6000 cada uno. Cada nodo contenía dos circuitos de ajedrez con 8 procesadores cada uno, lo que otorga en total 8x2x15x2 = 480 procesadores en el sistema completo.
Otra aplicación interesante de las máquinas multiprocesadores fue realizada por Thompson y Stiller a mediados de los 70, quienes desarrollaron mediante este tipo de hardware las bases de datos de finales para computadoras de ajedrez [71]. El procedimiento de sincronización y búsqueda con multiprocesadores se encuentra bastante detallado en [14]
Otro problema era la realización de debugging en este tipo de programas. Los procesadores funcionan en forma asíncrona y eventos que ocurren primero en un procesador y luego en otro pueden suceder en otro orden en otra simulación.
El programa OSTRICH fue el primero en participar en una competencia oficial de computadoras utilizando esta tecnología. Cinco computadoras serie Data General 16-bit Nova estaban conectadas mediante un paquete de comunicación de alta velocidad. En años subsiguientes 8 computadoras DG fueron utilizadas logrando un incremento de la velocidad de cálculo en un orden 5. Otros programas famosos que utilizaron multiproceso fueron CRAYBLITZ (1983 y 1984, procesador CRAY X-MP, 2 y 4 procesadores), CHESS CHALLENGER (1986, 20 microprocesadores 8086) y Deep Thought (1989, 3 procesadores de tecnología SUN y VLSI). DeepBlue para su match contra Kasparov utilizó un total de 2 frames RS6000 SP albergando 15 computadoras RS/6000 cada uno. Cada nodo contenía dos circuitos de ajedrez con 8 procesadores cada uno, lo que otorga en total 8x2x15x2 = 480 procesadores en el sistema completo.
Otra aplicación interesante de las máquinas multiprocesadores fue realizada por Thompson y Stiller a mediados de los 70, quienes desarrollaron mediante este tipo de hardware las bases de datos de finales para computadoras de ajedrez [71]. El procedimiento de sincronización y búsqueda con multiprocesadores se encuentra bastante detallado en [14]
Nuevo robot ayuda a los autistas a relacionarse
Bandit, el nuevo robot que intenta relacionarse con los autistas, fue creado en la Universidad de California del Sur con el fin de crear interacción en la comunicación. Este aparato intenta ser el mediador entra la persona con problemas para que pueda expresar lo que siente y lo que piensa.
Los autistas, que se encuentran ajenos a nuestro mundo, son personas que se encuentra imposibilitadas de hablar con las demás personas ya que su lenguaje es inentendible. Bandit posee una cámara en cada ojo e intenta copiar las emociones y movimientos humanos con el fin de mostrarse amigable con el autista. Cuando el robot recibe una respuesta por parte de la persona, un individuo que se encuentra en otro sitio de la habitación habla mediante un micrófono simulando una respuesta.
Mientras este tipo de creaciones sirvan para ayudar a la humanidad serán totalmente bienvenidos. Este tipo de productos tendrían que diseñarse con más frecuencia ya que podrían constituir un gran avance para los hombres.
jueves, 3 de junio de 2010
Capacidad de Memoria
Memorias de mayor capacidad son el resultado de la rápida evolución en tecnología de semiconductores. Los primeros programas de ajedrez corrían en máquinas que utilizaban memorias de base magnética. A inicios de 1970 aparecen las memorias realizadas en base a semiconductores utilizadas en la serie de computadoras IBM 370. Así como la velocidad de los computadores se incrementó en un factor de aproximadamente 100.000, la capacidad de memoria creció en una proporción similar. Este hecho es particularmente importante en programas que utilizan tablas de transposición. A medida que aumenta la velocidad de la computadora memorias de capacidad proporcionalmente mayor son necesarias para mantener la cantidad extra de posiciones que son buscadas.
Así como se espera tener mayores incrementos en la capacidad de procesadores en los próximos años, no es un abuso decir que la capacidad de memoria continuará creciendo de manera impresionante. Memorias de mayor capacidad podrán ser utilizadas por programas con tablas de hash de mayor envergadura, las cuales mantendrán la información en forma permanente.
Así como se espera tener mayores incrementos en la capacidad de procesadores en los próximos años, no es un abuso decir que la capacidad de memoria continuará creciendo de manera impresionante. Memorias de mayor capacidad podrán ser utilizadas por programas con tablas de hash de mayor envergadura, las cuales mantendrán la información en forma permanente.
Suscribirse a:
Entradas (Atom)