Muy Interesante

Los chips de computadora que funcionan con luz podrían entrenar inteligencia artificial más rápido que los componentes que funcionan con electricidad

Los científicos han diseñado un nuevo microchip que funciona con luz en lugar de electricidad. Los investigadores afirman que la tecnología tiene el potencial de entrenar futuros modelos de inteligencia artificial (IA) de forma más rápida y eficiente que los mejores componentes actuales.

Al utilizar fotones en lugar de electrones para realizar cálculos complejos, el chip podría superar las limitaciones de la arquitectura clásica de chips de silicio y acelerar significativamente el procesamiento informático y al mismo tiempo reducir el costo de procesamiento, dijeron los científicos en un nuevo estudio publicado el 16 de febrero. En la revista Nature Photonics.

Los chips de silicio tienen transistores (o pequeños interruptores eléctricos) que se encienden o apagan cuando se aplica un voltaje. En términos generales, cuantos más transistores tenga un chip, más potencia de cálculo tendrá y más potencia necesitará para funcionar.

A lo largo de la historia de la informática, los chips han seguido la Ley de Moore, que establece que el número de transistores se duplicará cada dos años sin aumentar los costes de producción ni el consumo de energía. Pero los chips de silicio tienen limitaciones físicas, incluida la velocidad máxima a la que pueden funcionar los transistores, la cantidad de calor generado por las resistencias y el tamaño más pequeño de chip que los científicos pueden fabricar.

Esto significa que a medida que aumente la demanda de energía en el futuro, apilar miles de millones de transistores en chips electrónicos de silicio cada vez más pequeños puede no ser factible, especialmente para los sistemas de inteligencia artificial que consumen mucha energía.

Artículo Recomendado:  Harry Kane: El delantero del Tottenham viaja a los Wolves con el equipo para el partido de visitante de la Premier League del domingo | Noticias de futbol

relacionado: El chip de computadora más grande del mundo, WSE-3, impulsará una enorme supercomputadora de inteligencia artificial ocho veces más rápido que el actual poseedor del récord.

Sin embargo, el uso de fotones tiene muchas ventajas sobre los electrones. En primer lugar, se mueven más rápido que los electrones, que no pueden alcanzar la velocidad de la luz. Si bien los electrones pueden moverse cerca de estas velocidades, tales sistemas requerirían cantidades grandes e inviables de energía. Por tanto, el consumo energético del uso de la luz es mucho menor. Los fotones tampoco tienen masa y no emiten calor como los electrones cargados.

Al diseñar el chip, los científicos se propusieron construir una plataforma basada en luz que pudiera realizar cálculos llamados multiplicación de matrices vectoriales. Esta es una de las operaciones matemáticas clave que se utilizan para entrenar redes neuronales: modelos de aprendizaje automático diseñados para imitar la estructura del cerebro humano. Las herramientas de inteligencia artificial como ChatGPT y Gemini de Google se entrenan de esta manera.

En lugar de utilizar obleas de silicio altamente uniformes para crear semiconductores como los chips de silicio tradicionales, los científicos adelgazan el silicio, pero sólo en áreas específicas.

«Estos cambios de altura -sin añadir ningún otro material- proporcionan una forma de controlar la propagación de la luz a través del chip, porque los cambios de altura se pueden distribuir, haciendo que la luz se disperse en patrones específicos, permitiendo que el chip realice operaciones matemáticas. .» Penn. «Los cálculos se realizan a la velocidad de la luz», dijo en un comunicado Nader Engheta, profesor de física de la universidad. «

Los investigadores afirman que su diseño se puede adaptar a los métodos de producción existentes sin ningún ajuste. Esto se debe a que los métodos que utilizan para construir chips fotónicos son los mismos que se utilizan para fabricar chips tradicionales.

Agregaron que los esquemas de diseño podrían adaptarse para mejorar las unidades de procesamiento de gráficos (GPU), cuya demanda ha aumentado en los últimos años. Esto se debe a que estos componentes son fundamentales para entrenar modelos de lenguaje grandes (LLM) como Gemini de Google o ChatGPT de OpenAI.

«Pueden adoptar plataformas fotónicas de silicio como complementos», dijo en el comunicado el coautor Firooz Aflatouni, profesor de ingeniería eléctrica en la Universidad de Pensilvania. «Entonces puedes acelerar [AI] entrenamiento y clasificación. »

Artículo Recomendado:  Los vehículos eléctricos de lujo para las masas comienzan en $ 44,995

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba