Cuando Rodney Brooks habla de robótica e inteligencia artificial, hay que escucharlo. Actualmente es profesor emérito de Robótica de Panasonic en el MIT y también cofundó tres empresas importantes, incluidas Rethink Robotics, iRobot y su empresa actual, Robust.AI. Brooks también dirigió el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT durante una década, a partir de 1997.

De hecho, le encanta hacer predicciones sobre el futuro de la IA y la TI. mantiene cuadros de mando Contó en su blog lo bien que va su trabajo.

Sabe de lo que está hablando y cree que tal vez sea hora de poner fin a los gritos sobre la IA generativa. Brooks cree que es una tecnología impresionante, pero quizás no tan eficiente como muchos sugieren. «No digo que los LLM no sean importantes, pero debemos tener cuidado al evaluarlos», dijo a TechCrunch.

Dice que el problema con la IA generativa es que, si bien es perfectamente capaz de realizar ciertas tareas, no puede hacer todo lo que un humano puede hacer, y los humanos sobreestiman sus capacidades. Brooks dijo: «Cuando un humano ve un sistema de IA realizar una tarea, inmediatamente lo generaliza a cosas similares y hace estimaciones de la capacidad del sistema de IA; no sólo de su desempeño en él, sino de su entorno». «Y normalmente son demasiado optimistas, y eso se debe a que utilizan un modelo del desempeño de una persona en una tarea».

El problema, dijo, es que la IA generativa no es humana ni parece humana, y tratar de darle capacidades humanas es un error. Dice que la gente lo encuentra tan capaz que quiere usarlo incluso para aplicaciones que no tienen sentido.

Brooks ofrece como ejemplo su última empresa, Robust.ai, un sistema robótico de almacén. Alguien les sugirió recientemente que sería bueno y eficiente decirle a los robots de su almacén adónde ir creando un LLM para su sistema. Sin embargo, en su opinión, este no es un caso de uso apropiado para la IA generativa y, de hecho, ralentizará las cosas. En cambio, es mucho más fácil conectar el robot al flujo de datos procedente del software de gestión del almacén.

«Cuando llegan 10.000 pedidos y tienes que enviarlos en dos horas, tienes que adaptarte a eso. El lenguaje no ayudará; sólo ralentizará las cosas», afirmó. «Tenemos un procesamiento de datos masivo y una tecnología y planificación de optimización de IA masiva. Y así es como cumplimos los pedidos más rápido».

Otra lección que Brooks ha aprendido cuando se trata de robots e inteligencia artificial es que no se puede intentar hacer demasiado. Debes resolver un problema que pueda solucionarse y en el que el robot pueda integrarse fácilmente.

«Necesitamos automatización en lugares donde ya hay limpieza. Así que el ejemplo de mi empresa es que nos está yendo muy bien en los almacenes, y los almacenes son realmente muy limitados. No hay iluminación en esos grandes edificios. No hay cosas tiradas en el suelo. piso porque allí no hay bolsas de plástico flotantes y a la gente que trabaja allí no le conviene comportarse mal”, dijo.

Brooks explica que también se trata de robots y humanos trabajando juntos, por lo que su empresa diseñó estos robots con fines prácticos relacionados con las operaciones de almacén, no para crear un robot que parezca un humano. En este caso parece un carrito de la compra con asa.

«Así que el factor de forma que utilizamos no es el de un ser humano caminando, aunque yo he diseñado y entregado más modelos con apariencia humana que nadie. Parecen carritos de compras», dijo. «Tiene un manillar, por lo que si hay un problema con el robot, alguien puede agarrar el manillar y hacer lo que quiera con él», dijo.

Después de tantos años, Brooks ha aprendido que lo importante es hacer que la tecnología sea accesible y tenga un propósito. «Siempre trato de hacer que la tecnología sea fácil de entender para la gente, para que podamos implementarla a escala y siempre considerar el caso de negocio; el retorno de la inversión también es muy importante».

A pesar de esto, Brooks dice que tenemos que aceptar que cuando se trata de IA siempre habrá algunos problemas difíciles de resolver que pueden tardar décadas en resolverse. «Independientemente de cómo se implementen los sistemas de IA, siempre habrá una larga lista de casos especiales que llevará décadas descubrir y solucionar. La ironía es que todas estas mejoras las realiza la propia IA».

Brooks dijo que esto es un error, principalmente porque Ley de MooreQue siempre habrá una rápida evolución en lo que respecta a la tecnología; la idea es que si ChatGPT 4 es tan bueno, imagina cómo serán ChatGPT 5, 6 y 7. El error que ve en este argumento es que la tecnología no siempre crece rápidamente, a pesar de la Ley de Moore.

Usó el iPod como ejemplo. Durante algunas iteraciones, su tamaño de almacenamiento aumentó de 10 a 160 GB. De haber seguido al mismo ritmo estimaban que para 2017 tendríamos un iPod con 160TB de almacenamiento, pero claro eso no sucedió. Los modelos vendidos en 2017 en realidad venían con 256 GB o 160 GB porque, como señalaron, nadie necesitaba más que eso.

Brooks cree que los LLM podrían ayudar hasta cierto punto con los robots domésticos, donde pueden realizar tareas específicas, especialmente con una población que envejece y no hay suficientes personas para cuidarlos. Pero dice que también puede presentar algunos desafíos únicos.

Dijo: «La gente dice: ‘Oh, los grandes modelos de lenguaje permitirán a los robots hacer cosas que no pueden hacer’. El problema no es ahí. El problema de poder hacer algo tiene que ver con la teoría del control y todo ese otro tipo de optimización matemática extrema».

Brooks explica que esto podría conducir eventualmente a robots con interfaces de lenguaje útiles para personas en situaciones de cuidados. «No es útil en un almacén decirle a un robot personal que salga a buscar un artículo para un pedido, pero en hogares de ancianos, podría ser útil que las personas puedan decirle cosas al robot», dijo.

Source link