Empresa suiza lanza un servicio de alquiler de IA hecha con células cerebrales humanas

El objetivo de estos bioordenadores, según FinalSpark, es desarrollar una solución de bajo consumo y alta eficiencia para los crecientes costes asociados al desarrollo de modelos de inteligencia artificial. La empresa afirma que podría ser hasta 100.000 veces más eficiente utilizar ordenadores fabricados con material orgánico para entrenar a la IA que utilizar tecnología tradicional basada en silicio.

Según Fred Jordan, fundador de FinalSpark, Neurospark es la única empresa que ofrece acceso a computadoras hechas con grupos de células cerebrales humanas (llamadas organoides) células cultivadas en laboratorio. Este tipo de bioprocesadores consume un millón de veces menos energía que los procesadores digitales tradicionales. La tecnología se puede ver en vivo en línea.

El enfoque, conocido como wetware computing, aprovecha la capacidad de los investigadores para cultivar organoides en el laboratorio, una tecnología bastante nueva que permite a los científicos estudiar lo que esencialmente son minireplicas de órganos individuales.

Entrenamiento de las células cerebrales

Los métodos tradicionales para entrenar modelos de IA suelen incluir una técnica llamada “aprendizaje de refuerzo”, en la que se otorga a un modelo de IA una recompensa por completar una tarea. Por lo general, esta llamada recompensa es simplemente un valor numérico que se utiliza para ayudar a calibrar qué tan cerca estuvo el comportamiento del resultado esperado.

Sin embargo, para proporcionar refuerzo positivo y negativo al entrenar modelos de IA hechos de neuronas dentro de organoides, los científicos tienen que usar técnicas que funcionan en las células cerebrales. Esto implica alimentar a las neuronas con dopamina (una molécula asociada con la recompensa) como refuerzo positivo y una señal eléctrica como refuerzo negativo.

Un total de 16 organoides se alojan en cuatro matrices conectadas a ocho electrodos cada una y a un sistema de microfluidos que suministra agua y nutrientes a las células.

De acuerdo a lo reportado por Science Alert, aunque no se dispone de cifras sobre su sistema concreto, su consumo de energía o su potencia de procesamiento, el equipo de investigación de FinalSpark afirma que entrenar un único modelo de lenguaje de gran tamaño como el GPT-3, precursor del GPT-4, requería 10 gigavatios hora o unas 6.000 veces la energía que consume un ciudadano europeo al año.

Las tendencias tecnológicas indican que la pujante industria de la IA consumirá el 3,5% de la electricidad mundial en 2030. La industria informática en su conjunto ya es responsable de alrededor del 2% de las emisiones mundiales de CO2.

IA de vida temporal

FinalSpark afirma que sus organoides pueden “vivir” hasta 100 días. En teoría, esto significa que un sistema de IA podría entrenarse y funcionar durante unos meses antes de tener que trasladarse a otro clúster o perderse para siempre.

A escalas más largas, tal vez podría llegar a ser posible crear sistemas de IA con vidas útiles similares a la nuestra como método para alinear la experiencia de la inteligencia artificial con la de la humanidad.

También es hipotéticamente posible que un día las cadenas de bloques funcionen en computadoras hechas de material orgánico.

Fuente: Cointelegraph.com