Una startup finlandesa llamada computación de flujo Una de las afirmaciones más extrañas jamás escuchadas en la ingeniería del silicio es que al agregar su chip complementario patentado, cualquier CPU puede duplicar instantáneamente su rendimiento y aumentarlo hasta 100 veces con cambios de software.

Si funciona, podría ayudar a la industria a satisfacer la inmensa demanda informática de los fabricantes de IA.

el flujo es un spinout vttUna organización de investigación apoyada por el Gobierno de Finlandia que es algo así como un laboratorio nacional. La tecnología de chip que comercializa, a la que ha denominado Parallel Processing Unit, es el resultado de una investigación realizada en ese laboratorio (aunque VTT es inversor, la IP es propiedad de Flow).

Flo es la primera en admitir que esta afirmación es ridícula a primera vista. No se puede extraer mágicamente rendimiento adicional de una CPU en la arquitectura y el código base. Si ese fuera el caso, Intel o AMD o alguna otra empresa lo habría hecho hace años.

Pero Flo está trabajando en algo. Es Teóricamente no es posible; nadie lo ha logrado simplemente.

Las unidades centrales de procesamiento han avanzado mucho desde los primeros días de los tubos de vacío y las tarjetas perforadas, pero en algunos aspectos básicos siguen siendo las mismas. Su principal limitación es que, al ser procesadores en serie y no en paralelo, sólo pueden hacer una cosa a la vez. Claro, hacen que esa cosa cambie múltiples núcleos y rutas mil millones de veces por segundo, pero todas estas son formas de adaptarse a la naturaleza de un solo carril de la CPU. (Por el contrario, una GPU realiza muchos cálculos relacionados simultáneamente, pero se especializa en determinadas tareas).

«La CPU es el eslabón más débil de la informática», afirmó Timo Valtonen, cofundador y director ejecutivo de Flow. «No es adecuado para su propósito y será necesario cambiarlo».

Las CPU se han vuelto mucho más rápidas, pero incluso con una capacidad de respuesta de nivel de nanosegundos, hay mucho desperdicio en la forma en que se ejecutan las instrucciones, porque la limitación básica es que después de que una tarea ha terminado, debe comenzar la siguiente. (Estoy simplificando aquí, ya que no soy ingeniero de chips).

Flow afirma haber eliminado esta limitación, convirtiendo la CPU de una carretera de un solo carril a una de varios carriles. La CPU todavía está limitada a realizar una sola tarea a la vez, pero la PPU de Flow, como la llaman, esencialmente realiza una gestión del tráfico a escala de nanosegundos para que las tareas entren y salgan del procesador más rápido que antes.

Piense en la CPU como un chef que trabaja en la cocina. Un chef solo puede trabajar hasta cierto punto, pero ¿qué pasaría si esa persona tuviera un asistente sobrehumano que intercambiara cuchillos y herramientas en las manos del chef, limpiara la comida preparada y agregara nuevos ingredientes y eliminara todas las tareas que en realidad no son trabajo del chef? El chef todavía solo tiene dos manos, pero ahora puede trabajar diez veces más rápido.

Gráfico (registro, en la nota) que muestra la mejora en los chips mejorados con PPU FPGA en comparación con los chips Intel no mejorados. El aumento continuo del número de núcleos de PPU mejora el rendimiento.
Credito de imagen: computación de flujo

No es una analogía perfecta, pero te da una idea de lo que está sucediendo aquí, al menos según las pruebas internas y demostraciones de Flow con la industria (y con todas las personas con las que están hablando). La PPU no aumenta la frecuencia del reloj ni presiona el sistema de otras maneras que puedan causar calor o energía adicional; En otras palabras, al chef no se le pide que pique el doble de rápido. Utiliza los ciclos de la CPU que ya se están ejecutando de manera más eficiente.

Valtonen dice que este tipo de cosas no es nada nuevo. «Esto ha sido estudiado y discutido en el mundo académico de alto nivel. Ya se puede realizar la paralelización, pero rompe el código heredado y luego se vuelve inútil».

Entonces se puede hacer. Esto no se podría hacer sin reescribir todo el código del mundo, lo que lo convierte en algo imposible. Otra empresa informática nórdica, Zeropoint, resolvió un problema similar, que logró altos niveles de compresión de memoria manteniendo la transparencia de los datos con el resto del sistema.

En otras palabras, el gran logro de Flow no es la gestión del tráfico de alta velocidad, sino hacerlo sin modificar ningún código en ninguna CPU o arquitectura que haya probado. Parece un poco absurdo decir que un código arbitrario se puede ejecutar dos veces más rápido en cualquier chip, sin ninguna modificación, aparte de integrar la PPU con el chip.

Aquí es donde radica el principal desafío para el éxito de Flow como negocio: a diferencia de un producto de software, la tecnología de Flow debe incorporarse en el nivel de diseño del chip, lo que significa que no funciona de forma retroactiva y está integrada en la PPU. hay que recorrer un largo camino. Flow ha demostrado que la tecnología funciona en una configuración de prueba basada en FPGA, pero los fabricantes de chips tendrán que invertir muchos recursos para ver los beneficios en cuestión.

El equipo fundador de Flow, desde la izquierda: Jussi Roivanen, Martti Forssell y Timo Valtonen.
Credito de imagen: computación de flujo

La escala de esas ganancias, y el hecho de que las mejoras de la CPU a lo largo de los años hayan sido iterativas y parciales, podrían obligar a esos fabricantes de chips a llamar a la puerta de Flow con urgencia. Si realmente puedes duplicar tu rendimiento en una generación con un solo cambio de diseño, no es gran cosa.

Refactorizar y recompilar el software para que funcione mejor con la combinación PPU-CPU proporciona mayores beneficios de rendimiento. Flow dice que ha visto un aumento de hasta 100 veces en el rendimiento con el código modificado (aunque no necesariamente reescrito por completo) para aprovechar su tecnología. La compañía está trabajando para ofrecer herramientas de recompilación para simplificar esta tarea a los fabricantes de software que desean optimizar chips con capacidad Flow.

Analista Kevin Crevel Investigación TiríasAquellos que fueron informados sobre la tecnología de Flow y se refirieron a ella como una perspectiva externa sobre estos asuntos estaban más preocupados por el interés de la industria que por los fundamentos.

Tiene toda la razón en que la aceleración de la IA es el mercado más grande en este momento, al que se puede apuntar con silicio especializado como el popular H100 de Nvidia. Aunque las CPU aceleradas por PPU beneficiarían a todas las áreas, es posible que los fabricantes de chips no quieran hacer demasiadas cosas. Y la pregunta es simplemente si esas empresas están dispuestas a invertir recursos significativos en una tecnología en gran medida no probada cuando potencialmente tienen un plan quinquenal que podría molestarlas con esa opción.

¿Se convertirá la tecnología de Flow en el componente imprescindible para todo fabricante de chips, lo que generará riqueza y fama? ¿O los fabricantes de chips que ahorran dinero mantendrán el rumbo y seguirán obteniendo rentas del mercado de computadoras en constante expansión? Quizás haya algo intermedio, pero esto demuestra que, aunque Flow ha logrado grandes logros en ingeniería aquí, como todas las nuevas empresas, el futuro de la empresa depende de sus clientes.

Flow acaba de salir del sigilo con 4 millones de euros (alrededor de 4,3 millones de dólares) en financiación previa liderada por Butterfly Ventures, con la participación de FOV Ventures, Sarsia, Stefan Industries, Superhero Capital y Business Finland.

Source link