(+54 +11) 4371-0123 / 6507
+54 911 6171-8366
ventas@microelectronicash.com

Hardware específico para IA

Chip para Deep Learning con 1,2 billones de transistores

La velocidad y la potencia computacional movilizan los desarrollos en torno al Inteligencia Artificial.

Chip para Deep Learning con 1,2 billones de transistores
Chip Wafer Scale Engine, 56 veces más grande que la mayor unidad de procesamiento gráfico (GPU)

 

La Inteligencia Artificial (IA) y el aprendizaje profundo (Deep Learning) son campos en continua expansión, donde el límite de lo posible se actualiza todo el tiempo gracias a un proceso de innovación constante.

Compañías tecnológicas como Intel o IBM cuentan hace un tiempo con desarrollos de chips o procesadores neuromórficos, es decir, chips que se alejan del diseño convencional y presentan una configuración específica para utilizarse en aplicaciones de IA y Deep Learning. Se trata de chips enlazados mediante conexiones de alto rendimiento y concebidos puntualmente para lidiar con el alto paralelismo intrínseco propio de los algoritmos de aprendizaje profundo, sumado a un volumen inmenso de información.

Entre las líneas de investigación en torno a la IA se menciona la Computación Neuromórfica. Intel Labs explica en su sitio web que esta rama implica un abordaje que se aleja del enfoque de los procesadores actuales y la computación lógica convencional, para acercarse más a la lógica de funcionamiento del cerebro humano.


En el caso de Intel, se menciona su chip neuromórfico Loihi, una solución fabricada con fotolitografía de 14 nm que incorpora 128 núcleos y alrededor de 130 000 neuronas artificiales.
IBM, por su parte, cuenta con TrueNorth, un procesador neuromórfico que integra 4096 núcleos, siendo posible conectar varios de ellos en una red con el propósito de emular, según IBM, un sistema con un millón de neuronas y 256 millones de sinapsis.

Cerebras, una compañía fundada en 2015 con base en California, EE.UU, especializada en el desarrollo de sistemas computacionales para aplicaciones de IA, también ha diseñado y creado recientemente un chip específico para aprendizaje profundo.

El chip, identificado con las siglas WSE (Wafer Scale Engine) se destaca por integrar la sorprendente cantidad de 1,2 billones de transistores en su estructura. Además del asombroso número, también llama la atención su diseño, el cual se caracteriza por tener un tamaño mayor que el de un chip convencional.

Se trata de una abordaje radicalmente distinto al utilizado por las compañías mencionadas anteriormente.  Según consigna Cerebras en su sitio web, se apuesta por un chip provisto de un paralelismo intrínseco muy alto, con el fin de optimizar la ejecución de los algoritmos de aprendizaje profundo, plasmado en el empaquetado de una enorme cantidad de núcleos, en este caso, en torno a los 400.000 núcleos programables.

Concepto innovador de los ingenieros, aplicado en la arquitectura de la memoria de Cerebras

En relación a este aspecto, Cerebras explica que la estrategia de los ingenieros en cuanto a la arquitectura de la memoria se basa en distribuir dicha memoria en torno a los 400.000 núcleos que posee el chip WSE, La finalidad que persigue ese   abordaje es minimizar la latencia, mejorar el rendimiento global y optimizar el proceso final.

En el siguiente video, conocé más sobre este chip de la mano de sus protagonistas (activá el subtítulo en español):

 

 

Recibí nuestras novedades: Microelectronica

Seguinos en las redes:

Facebook: @microelectronicash

Instagram: @microelectronicash

YouTube: Microelectronica


Chip para Deep Learning con 1,2 billones de transistores

Botón de Arrepentimiento

  • CONTACTO

  • Tte. Gral. Perón 1455 - Paraná 180
    CABA - Buenos Aires - Argentina
  • (+54 +11) 4371-0123 / 6507
  • (+54 +11) 4372-6322
  • +54 911 6171-8366
  • ventas@microelectronicash.com
  • BUSCAR

Última Actualización: 13/10/2021 14:20