lunes, 25 de julio de 2011

Una de las Computadoras más pequeñas del mundo



Cuando en los tiempos de hoy todo se trata de reducir espacio, ganar lugar en ambientes realmente grandes y mostrar elementos y dispositivos de gran modernidad, en la CES 2011 no se dejó de lado estos aspectos de la vida actual y se presentaron gadgets y computadoras de dimensiones realmente pequeñas y diseños verdaderamente innovadores.
Es el caso de la computadora que les presentamos hoy. Se trata de la Xi3 Modular Computer del fabricante Xi3 Intermountain. El dispositivo que vemos en las fotos se alzó con el premio a la innovación en esta última CES, algo realmente importante en una feria que se dedica a mostrar lo mejor de lo mejor en tecnología y donde se pensaba que este año el 3D y las tablets pc se lo iban a llevar todo. El fabricante norteamericano dio una gran lección a todos.
La Xi3 es básicamente un cubo de aluminio de tan solo 10 centímetros de lado y un centro hueco que alberga un potente procesador dual core.
El motherboard de esta diminuta computadora se encuentra separado en tres capas: Una para el procesador y la memoria RAM, y las otras dos está dedicadas a las conexiones y puertos. El fabricante admitió que esas placas pueden ser fácilmente desmontadas y reemplazadas para así expandir el potencial de nuestro “mini ordenador”. Si se requiriese mayor espacio en disco, la Xi3 puede ser ampliada mediante la incorporación de un nuevo cubo.
Un microprocesador AMD Athlon X2 (tres versiones disponibles), 2 GB de RAM, salidas VGA, HDMI y un maximo de 6 puertos USB y 2 SATA son lo que equipan a este diminuto ordenador.

Intel revoluciona las computadoras con un nano chip en 3D

La empresa dio a conocer una nueva generación de tecnología de microprocesadores llamada "Ivy Bridge" que crea componentes casi tres mil veces más pequeños que un cabello humano.
 
Intel revoluciona las computadoras con un nano chip en 3D
"Chip de Intel"
 
Intel develó su nueva generación de tecnología de microprocesadores, con el nombre en código "Ivy Bridge".
Los chips -de pronta aparición en el mercado- serán los primeros en utilizar un proceso de fabricación de 22 nanometros (nm) que les permitirá tener más transistores que el actual sistema de 32nm.
Para poner su tamaño en dimensión hay que saber que un nanometro equivale a una mil millonésima parte de un metro. Un cabello humano tiene un ancho cercado a 60.000nm.
Intel dice que también usará nuevos transitores 3D Tri-Gate que consumen menos energía.
Se cree que su competencia -AMD e IBM- también están planeando diseños similares.
"Tri-Gate" - El anuncio marca un significativo paso hacia adelante en la industria comercial de procesadores, que constantemente busca construir más transistores dentro de los chips de silicio que se usan en las computadoras.
Desde hace tiempo se preveía la llegada de compuertas de 22nm, aunque la naturaleza exacta de la tecnología de Intel se había mantenido en secreto hasta ahora. - La compañía espera iniciar su producción comercial a finales de este año.
Kaizad Mistry, gerente del programa de 22nm de Intel, aseguró que la llegada de los transistores Tri-Gate cambiará los productos de consumo.
"Le permitirá al mercado mayor eficiencia energética, lo que representa mejor desempeño de la batería y más duración de ésta manteniendo su desempeño", dijo Mistry.
En el diseño de los microprocesadores, un canal conductor pasa a través de una compuerta de encendido que se abre o cierra cambiando la energía de 0 a 1 (apagado o encendido).
Hasta ahora esos canales -que se encuentran en la lámina de silicio- han sido planos. El sistema Tri-Gate de Intel reemplaza esos canales con aletas en 3D.
Mistry explicó que esa superficie extra los hace que tengan mejor conducción y trabajen mejor con menos energía.
Dan Hutcheson, analista de la industria de semiconductores de la empresa VLSI Research, le dijo a la BBC que el nuevo proceso afianzará el dominio de Intel en el mercado. - "Los deja en una posición muy poderosa", aseguró.
Hutcheson añadió que la innovación en la arquitectura en 3D no sólo beneficiará a los procesadores de computadoras de escritorio de la empresa, sino también a los dispositivos móviles.
"Esto hará que su línea de productos Atom compita mucho más con ARM", aseguró. ARM es una empresa británica que es líder en el desarrollo de chips para productos móviles.
Ley de Moore - El diseño de Ivy Bridge permite alojar aproximadamente el doble de transistores que existe en los chips de 32nm.
Dicha mejoría es consistente con la ley de Moore, la observación hecha por el cofundador de Intel, Gordon Moore, de que la densidad de los chips se duplicará cada dos años.
Sin embargo, Intel y otros fabricantes de chips, se están acercando cada vez más a límites físicos que les impedirían continuar sus avances.
El próximo proceso de fabricación de chips será 14nm seguido de 11nm. Los átomos miden aproximadamente 0.5 nm de ancho.
Kaizad Mistry cree que la actual tasa de crecimiento continuará por algún tiempo. "El propio Gordon Moore dijo que ningún exponencial es para siempre, pero a él le gustaría que retrasáramos esa norma por el mayor tiempo posible".
En la actualidad Intel controla el 80% del mercado de ventas globales de microprocesadores, según la empresa de análisis IDC. Su rival más cercano Advanced Micro Devices (AMD) tiene 19% del mercado

LA COMPUTADORA DEL FUTURO SERAN TAN RAPIDA COMO LA LUZ

La computadora del futuro no funcionará por electricidad, pues se alimentará por luz y de esta manera ganará en rapidez y potencia. En ese caso los nuevos circuitos integrados no transportarán electrones, sino partículas de luz o fotones.
Los haces luminosos podrán viajar entre interruptores a 300 mil kilómetros por segundo. De esa manera la placa madre o “Motherboard” de esa nueva generación estará compuesta por miles de láseres microscópicos o fuentes de luz.
Por demás, los novedosos componentes evitarán los cortocircuitos y aparecerá una disminución importante de calor, por el que las computadoras de hoy vienen con un miniventilador.
El éxito mayor estará entonces en un ordenador totalmente a base de luz, incluidos los componentes tradicionales como CD-ROM, y escáneres, entre otros.
Y no estamos muy lejos de esos avances, pues un grupo de investigadores de la Universidad de Colorado en Estados Unidos ya construyó un prototipo, mientras científicos de la Universidad de Illinois o del Instituto de Tecnología de Zürich, en Suiza, andan tras esos pasos.

SEXTA GENERACION DE LAS COMPUTADORAS

La última etapa de la quinta generación de computadoras fue anunciada como la de las "computadoras inteligentes", basadas en Inteligencia Artificial, iniciada por un famoso proyecto en Japón, y que finalizó en un estrepitoso fracaso; a partir de ahí, la cuenta de las generaciones de computadoras es un poco confusa.

La sexta generación se podría llamar a la era de las computadoras inteligentes baseadas en redes neuronales artificiales o "cerebros artificiales". Serían computadoras que utilizarían superconductores como materia-prima para sus procesadores, lo cual permitirían no malgastar electricidad en calor debido a su nula resistencia, ganando performance y economizando energía. La ganancia de performance sería de aproximadamente 30 veces la de un procesador de misma frecuencia que utilice metales comunes.

Todo esto está en pleno desarrollo, por el momento las únicas novedades han sido el uso de procesadores en paralelo, o sea, la división de tareas en múltiples unidades de procesamiento operando simultáneamente. Otra novedad es la incorporación de chips de procesadores especializados en las tareas de vídeo y sonido.

Esta manía de enumerar las generaciones de computadoras parece que se ha perdido. Ya no suceden, como ocurrió en las cuatro primeras generaciones, la sustitución de una generación de computadoras por las siguientes. Muchas tecnologías van a sobrevivir juntas, cada una en su sector de mercado.

Es una realidad que los chips son cada vez más chicos, rápidos y eficientes ... será la característica de la séptima generación de computadoras?

PROXIMA GENERACION DE COMPUTADORAS


            Día a día son cada vez más los que se adhieren al mundo de la informática y la tecnología, y las máquinas van cambiando de colores, formas, y arquitecturas. En nuestra nota te presentamos las computadoras de la próxima generación y te contamos cuales son los últimos avances tecnológicos.

           Supongamos que mientras estás caminando hacia la oficina, de repente ves alguien parado frente a ti. Como no puedes recordar quien es ella, discretamente cliqueas sobre un botón de tu reloj para desplegar una minipantalla en tus anteojos. Entonces, una diminuta LCD proyecta un menú dentro del lente justo en frente de tu ojo derecho. Utilizando tu reloj seleccionas la opción de Identificar. La cámara te muestra una fotografía de una misteriosa mujer e inalámbricamente la transmite a la pequeña computadora que tienes en tu bolsillo. La máquina identifica la persona como Eve McSweeney de la empresa McSweeney Sprocket Distributors, a quien habías conocido en una reunión profesional el mes pasado.
        Entonces, decides saludarla. Suena poco lógico verdad?

Todo este tipo de tecnología ya existe como un prototipo en los laboratorios de investigación, ya sea como un patrón de progreso, o como una nueva creación. En el 2010, podrían ser herramientas comunes de trabajo diario, pero también podrían causar el final de las computadoras personales...
        Luego, en tu oficina, podrías tomar la computadora pequeña de tu bolsillo y colocarla en el slot correspondiente de tu ordenador de escritorio, por ejemplo, una computadora común ejecutando Microsoft Windows 2009. Las dos sincronizarán la información de sus archivos, incluyendo una grabación de audio y una copia de tu conversación con Eve.
Una etapa de cambios...
       Durante más de dos décadas, la PC ha ocupado el trono dentro de la familia de computadoras. Pero hoy en día, comienzan a producirse algunos cambios. Mientras que el mercado para los periféricos y el hardware para PC creció un 12,7 por ciento en 1999, de acuerdo a las investigaciones de mercado de las grandes empresas, la venta de las computadoras de escritorio y de servidores están creciendo más pausadamente que en el año anterior. Algunos empresarios de importantes empresas afirman que el crecimiento del mercado de las PCs involucran a las computadoras portables, a las handheld (Asistentes personales), y a los nuevos periféricos. Por ejemplo, la venta de las Palm PDAs, ascendieron un 80 por ciento en 1999, mientras que la venta de las cámaras digitales, crecieron un 97 por ciento, y la venta de las PCs portátiles de cualquier tipo solo se incrementó en un 26,5 por ciento.
             Pase lo que pase, y en el tiempo que suceda, la realidad futura será protagonizada por un mundo completamente inalámbrico...

viernes, 22 de julio de 2011




Desde que los computadores se empezaron a utilizar con fines científicos, comerciales, militares, para las comunicaciones, etc., han evolucionado y se han diferenciando claramente en cinco generaciones que generalmente se caracterizan por la tecnología empleada en su fabricación lo que a incidido en el tamaño que hace que el equipo sea de mayor velocidad en la resolución de los trabajos y la capacidad de almacenamiento también es superior ya que los programas son bastante grandes, lo que ha reducido es el precio comercial.

Primera Generación (1945 - 1958)

Los computadores de ésta generación utilizaban válvulas electrónicas al vacío de tamaño considerable de 1,2 cm. de diámetro de base y 3 cm. de altura, para almacenar y procesar la información, por lo que requerían de enormes espacios y elevados costos de fabricación.


Segunda Generación (1959 - 1964):

Los computadores de esta generación reemplazaron las válvulas al vacío por pequeños transistores, lo que permitió reducir el tamaño y el costo.

Tercera generación (1965 - 1971):

En ésta los transistores se sustituyeron por circuitos integrados, lo que produjo una reducción en el tamaño de los equipos, en su costo y consumo energético y un incremento en su fiabilidad y velocidad de operación. El circuito integrado esta formado por un gran número de componentes electrónicos, de transistores, capacitores, diodos, resistencias, conductores, y otros componente que depende de la tecnología del modelo del equipo, los que son miniaturizados y encapsulados en un espacio de unos pocos centímetros cuadrados de superficie.

Junto con esta generación de computadores, proliferaron los lenguajes de programación de alto nivel (Basic, Pascal, Fortran, pl/1, rpg/II, etc.) lo que amplió considerablemente su campo de utilización.


Cuarta Generación (1972 - hasta la fecha):

Los circuitos integrados se miniaturizaron y dieron lugar a los microchips de gran capacidad, basados en el principio de integración a gran escala (LSI / Large Scale Integratión y VLSI/ Very Large Scale Integratión), que posee confiabilidad y velocidad de proceso muy altas, y costos comparativamente reducidos.


Quinta Generación (1985 hasta la fecha)

Son computadores de vanguardia a las que, adicionalmente a la integración a gran escala de los componentes electrónicos básicos, se les ha implementado gran cantidad de elementos electrónicos complementarios especializados y una programación sofisticada, lo que ha ampliado considerablemente su capacidad.

Esta se caracteriza, ante todo, por los lenguajes llamados de quinta generación, utilizados en inteligencia artificial y cuya base es la similitud con el lenguaje natural humano, pues utiliza reglas, proposiciones y redes semánticas. Entre los más importantes lenguajes figura el LISP Y PROLOG.



EL ANTES Y EL DESPUES DE LAS COMPUTADORAS.

                                                                              Harwell

     Que ha estado guardado desde 1973. Antes de guardarlo (construido en 1949), la computadora con sus increíbles 112.5 bytes de memoria realizaba cálculos matemáticos. Fue diseñado alrededor de Decatrones  (900 de ellos) que son válvulas llenas de neón que pueden almacenar números. Y si alguna vez te quejaste que tu computadora es lenta, aparentemente tardaba 10 segundos para que la máquina completara una simple multiplicación. El resultado se imprimía en una cinta como la que sostiene el tipo en la foto.


                      Microsoft y su visión sobre el diseño de la futura generación de PC

        La empresa tuvo a un grupo de sus diseñadores trabajando en secreto durante 18 meses. Busca que los fabricantes modernicen sus diseños desde 2007. BusinessWeek elaboró un artículo sobre los planes ocultos de Microsoft. Descubra los diseños más modernos.

     “Curvas aceleradas y contraste. Los colores preferidos incluyen una cortina de negro llamado Obsidian y un blanco hielo traslúcido. Queremos que la gente se enamore de sus PC, no simplemente que las usen por ser productivas y exitosas. Queremos que las PC sean objeto de puro deseo”.

LAS COMPUTADORAS DEL FUTURO


   Hasta ahora, las computadoras se conectan a tomacorriente. Y tienen microprocesadores del tamaño de la punta de los dedos, con 16 millones de circuitos en su corazón. Aunque en las dos próximas décadas las cosas pueden cambiar. La miniaturización de los microchips (que hasta ahora sirvió para aumentar la velocidad en el procesamiento de los datos) no puede seguir indefinidamente.

   En 20 años, el achique provocará que los microchips y sus componentes alcancen la escala atómica.Por eso, científicos de América y Europa buscan que las computadoras del futuro ya no funcionen en base a electricidad. Su meta (y su sueño) es que la máquina del siglo veintiuno se alimente pura y exclusivamente de luz.Para ganar en rapidez y potencia, los nuevos circuitos integrados no transportarían chorros de electrones, sino partículas de luz (fotones). La velocidad de transmisión de datos más alta que existe hasta el momento es la velocidad de la luz, y la de un electrón es muy inferior a ella, explicó David DiVicenzo, del Centro de Investigaciones de la empresa IBM, a la revista Scientific American.Es que los haces luminosos pueden recorrer las distancias que separan uno y otro interruptor a una velocidad de 300 mil kilómetros por segundo.Por eso, cada placa madre de las computadoras ópticas estará formada por miles de láseres microscópicos o fuentes luminosas. Cada uno de los cuales envía y recibe mensajes a medida que se enciende y apaga millones de veces.Las ventajas de usar luz para transportar información dentro de la computadora no se limita al aumento de la velocidad. Además de ser más rápidos que la electricidad, los fotones tienen la ventaja de poder cruzarse sin provocar un cortocircuito.

   Con los electrones no sucede lo mismo: dos alambres de cobre que se encuentran inesperadamente serán la causa segura de un apagón en toda la casa.Esa capacidad de convivencia y buena vecindad estará directamente relacionada con la cantidad de datos que la computadora podrá procesar cada vez. Al poder ir y venir por el mismo canal en direcciones opuestas, la información circulante aumenta considerablemente. Problemas de chispazos aparte, la electricidad tiene otros inconvenientes: los electrones son propensos a acumular calor. Por eso, las computadoras vienen con un miniventilador que refresca la máquina, y la protege del recalentamiento. Manteniéndola a salvo de fundirse en el instante menos pensado. Al menos en teoría, las computadoras ópticas podrán superar muchas de estas dificultades.Aunque el premio mayor sería dar con una computadora capaz de funcionar totalmente a base de luz, los expertos se conforman (por el momento) con fabricar pequeñas partes que puedan ensamblarse y terminar en una dream machine o máquina de los sueños, con todo lo que tiene que tener, incluidos los periféricos como lectores de CD-ROM y escáneres.Hace poco más de 4 años, un grupo de investigadores de la Universidad de Colorado, en los Estados Unidos, construyó un prototipo capaz de almacenar y procesar la información utilizando haces de luz láser circulando alrededor de una fibra óptica, en vez de electrones. Todavía muy primitivo, el modelo puede procesar información por sí mismo, sin depender de una computadora electrónica que proporcione instrucciones y provea datos desde afuera.Indomable, una de las principales contras de la luz es que no puede ir de un circuito a otro dentro de un mismo chip, sin un mecanismo que la confine. Para solucionarlo, investigadores de la Universidad de Illinois y del Instituto de Tecnología de Zurich lograron armar el año pasado cables ópticos o waveguides, capaces de guiar a los fotones aun en caminos curvos .

   De todos los elementos aislados que ingenieros y expertos en computación construyeron hasta ahora, los interruptores o llaves de encendido y apagado (switchs) fueron los más complicados de lograr. E, incluso, los que precisaron mayor desarrollo.Aunque no significa que los científicos puedan empezar a producir y comercializar switchs ópticos ahora mismo, científicos que trabajan en la Universidad de Cambridge se las ingeniaron. Y lograron prender y apagar un interruptor a través de pulsos de luz láser. Pero si fabricar circuitos totalmente ópticos es muy difícil, a los ingenieros les queda un camino alternativo: hacer que chips de silicio y chips de luz congenien en un mismo espacio, por mitades. En un futuro cercano, al menos, las computadoras ópticas deberán conformarse con ser sistemas híbridos, medio electrónicos, medio ópticos, admite John Walkup, director del Laboratorio de Sistemas Opticos de la Universidad Tecnológica de Texas, en Estados Unidos.La cuestión es que ambos tipos de microprocesadores son muy diferentes, de manera que integrarlos en una estructura única resulta complicado y... caro.Internet, por su parte, no quedará al margen de los desarrollos. Expertos del MIT (Instituto Tecnológico de Massachusetts), están desarrollando un hardware para redes que funciona gracias a láseres capaces de transmitir 100 mil millones de pulsos por segundo.

COMPUTACIÓN DEL FUTURO


     Lo que se busca con esta investigación es saber o tener una idea de que es lo que viene para las computadoras.

Computadoras quánticas.

En 1965, el presidente emérito y cofundador de Intel, Gordon E. Moore- ideólogo de la ley-, se da cuenta de que el número de transistores que contiene un microchip se duplica aprox. Cada año pero, esta progresión no es infinita.
La miniaturización de circuitos tiene un limite ya que el reducir tanto su tamaño hace que produzcan demasiado calor. Por otra parte, a la escala nanométrica entran las leyes de la física quántica al juego, en la que los electrones se comportan de una manera probabilística.
Algunos Físicos en 1982 empezó a gestarse una idea que parecía descabellada: construir una computadora quántica, una maquina capaz de aprovecharse de las particulares leyes físicas del mundo subatómico para procesar a gran velocidad ingentes cantidades de datos y, en definitiva, hacer que las supercomputadoras actuales parezcan simples ábacos.
A diferencia de las computadoras personales que han sido diseñadas para que trabajen con información en forma de bits una computadora básica usa bits quánticos o qubits, capaces de registrar unos y ceros a la vez. Esto lo logran gracias a la una de las premisas fundamentales de la mecánica quántica: la sobreposicion, que indica que a escalas ínfimas un único objeto puede tener al mismo tiempo dos propiedades distintas o pueda estar en dos sitios a la vez. De esta forma la velocidad d calculo aumenta enormemente.

Computadoras Ópticas:

Muy rápidas y baratas.

Kevin Homewood está al frente de un grupo de expertos de la universidad de Surrey, Inglaterra, que cree que la clave se encuentra en la luz. Según estos investigadores, es factible construir un dispositivo óptico de computación que se aproveche de la velocidad luz y de su gran capacidad para transportar información. El problema al que se han enfrentado estos científicos es que el silicio es con el que se fabrican microchips normalmente emite energía calorífica, no luminosa. Para superarlo Homewood y sus colegas construyeron trampas a escala atómica en el interior del silicio donde consiguieron atrapar electrones y forzarlos a liberar energía lumínica. A parte de miniaturizar los chips y hacerlos más eficientes este prototipo podrá funcionar a temperatura ambiente.

Computadoras basadas en el ADN


California Leonard Adleman sorprendió a la comunidad científica al solventar esta cuestión utilizando una pequeña gota de un liquido que contenía ADN. Adleman ideo un método de plantear el problema a partir de bases enfrentadas que forman hebras de la molécula del ADN: A, C, T y G, las letras del abecedario genético. De esta forma, utilizando los mismos patrones químicos que permiten que las bases se unan de una forma especifica se identifico la solución correcta en un tiempo record: había nacido la computadora de ADN.
Y no es algo para tomarse a la ligera, pues cada centímetro cúbico de ADN contiene mas información que un billón de CD's. Pero, a pesar de que tiene esta memoria masiva y de que las computadoras de ADN utilizarían una cantidad mínima de energía para funcionar, aun se desconoce como hacer una maquina útil capaz de aprovechar todas estas ventajas.

Computadoras Neuroelectrónicas

En el instituto Maxplanck de bioquímica, cerca de Munich, el profesor Peter Fromherz y sus colaboradores han conseguido hacer que el silicio interactué con tejidos vivos. Esta tecnología, conocida como neuroelectrónica, abre una vía de comunicaciones entre computadoras y células. El primer “neurochip” ha consistido en fusionar y hacer que trabajen juntos un microchip y las neuronas de un caracol. En el futuro, gracias a esta tecnología, podrían lograrse implantes que como una neuroprótesis capaces de sustituir las funciones del tejido dañado del sistema nervioso.

ACONTECIMIENTO RELEVANTE (2008)

   El pasado miércoles, la ACM (Association for Computing Machinery), anunció los ganadores de sus prestigiosos premios que otorgan a las personas más innovadoras dentro del campo de la computación. La entrega de premios se realizará el 27 de Junio en San Diego, California, en el acto anual de entrega de premios de la ACM.

Los premios ACM tratan de abarcar todo el campo de la computación, por lo que se dividen en una serie de premios específicos para cada área. 
Premio ACM A. M. Turing

Comienzo por este premio porque es, sin duda, el más relevante de todos los premios que otorga la ACM, llegándose a considerar el Nobel de la Informática. Este premio se otorga de forma anual a “contribuciones a los fundamentos teóricos y prácticos de los lenguajes de programación y diseño de sistemas, especialmente los relacionados con la abstracción de los datos, la tolerancia a fallos y la computación distribuida”. Este año el premio fue para Barbara Liskov, del MIT (Massachusetts Institute of Technology), por sus innovaciones en los fundamentos del diseño y construcción de sistemas de computación pervasiva, que facilitan la vida diaria. Sus logros en el diseño de los lenguajes de programación ha permitido desarrollar software más seguro y fácil de mantener. A día de hoy, y desde 1975, son la base de cada lenguaje de programación, incluyendo Ada, C++, Java y C#.

Paris Kanellakis Theory and Practice Award

Este premio se destina a logros teóricos específicos que han demostrado tener significante efecto en la computación. Este año, Corinna Cortes y Vladmir Vapnik han sido premiados por su revolucionario desarrollo de un algoritmo altamente efectivo denominado ‘Support Vector Machines’ (SVM), un conjunto de métodos de aprendizaje supervisado utilizados para clasificación de datos y regresión. El SVM es uno de los algoritmos de aprendizaje más utilizandos dentro del Aprendizaje Automático, utilizado en diagnósticos médicos, predicción del tiempo o detección de intrusiones, entre otras aplicaciones prácticas.

Software System Award

Este premio tiene el objeto de premiar a una institución o persona por el desarrollo de un sistema de software que haya influenciado a la industria, reflejado por sus contribuciones mediante conceptos, aceptación comercial, etc. Este año el premio ha ido a parar a Gamma Parallel Database System, el primer sistema de base de datos relacional paralelo, por ser el primer sistema capaz de ejecutar la misma consulta con el mismo rendimiento sobre bases de datos más grandes mediante la introducción de nuevos nodos hardware, es decir, un sistema de gestión de bases de datos realmente escalable. Este sistema fue desarrollado por David J. DeWitt (Microsoft, Universit of Winsconsin-Madison), Robert Gerber (Microsoft), Murali Krishna (Hewlett Packard), Donovan A. Schneider (Yahoo!), Shahram Ghandeharizadeh (University of Southern California), Goetz Graefe (Hewlett Packard), Muchael Heytens (RGM Advisory), Huil-I Hsiao (IBM), Jeffrey F. Naughton (University of Winsconsin-Madison) y Anoop Sharma (Hewlett Packard).

ACM/AAAI Allen Newell Award

Este premio reconoce la carrera profesional de investigadores que han trabajado en un amplio abanico de áreas dentro de la computación, o que han ligado la computación a otras áreas de conocimiento. Barbara Grosz y Joseph Y. Halpern han sido premiados por sus investigaciones pioneras en el procesamiento del lenguaje natural y los sistemas multiagente, así como por su liderato en el campo de la Inteligencia Artificial.