Hola amigos, bienvenidos al boletín informativo periódico sobre IA de TechCrunch.

Esta semana en AI, la Corte Suprema de Estados Unidos anuló la “deferencia de Chevron”, un fallo de hace 40 años sobre el poder de las agencias federales que exigía a los tribunales ceder ante las interpretaciones de los estatutos del Congreso por parte de las agencias.

Cuando el Congreso dejó vagos algunos aspectos de sus estatutos, la deferencia de Chevron permitió a las agencias establecer sus propias reglas. Ahora se espera que los tribunales tomen sus propias decisiones legales, y las implicaciones de esto podrían ser de amplio alcance. Scott Rosenberg de Axios escribe que el Congreso -probablemente el más funcional Hoy en día, el organismo que funciona como organismo ya no tiene que hacer un intento eficaz de predecir el futuro a través de su legislación, ya que las agencias ya no pueden aplicar reglas básicas a nuevas situaciones de aplicación de la ley.

Y eso podría descarrilar para siempre los esfuerzos nacionales de regulación de la IA.

El Congreso ya estaba luchando por aprobar un marco político básico de IA, hasta tal punto que los reguladores estatales de ambos partidos se vieron obligados a intervenir. Ahora, si quiere sobrevivir a los desafíos legales, cualquier regulación que redacte tendrá que ser muy específica, una tarea aparentemente desalentadora dada la velocidad y la imprevisibilidad con la que se mueve la industria de la IA.

La jueza Elena Kagan planteó específicamente la cuestión de la IA durante los alegatos orales:

Imaginemos que el Congreso aprueba un proyecto de ley de inteligencia artificial y tiene todo tipo de delegaciones. Según la naturaleza de las cosas y especialmente la naturaleza del tema, habrá todo tipo de lugares donde, aunque no haya una delegación explícita, el Congreso en realidad ha dejado un vacío. … (d) ¿Queremos que los tribunales llenen ese vacío, o queremos que una agencia lo llene?

Ahora los tribunales llenarán este vacío. O los legisladores federales considerarán que el ejercicio es inútil y dejarán de lado sus proyectos de ley sobre IA. Independientemente del resultado, es más difícil que nunca regular la IA en Estados Unidos.

noticias

Los costos de la IA ambiental de Google: Google ha publicado su Informe medioambiental 2024, un documento de más de 80 páginas que describe los esfuerzos de la empresa para aplicar la tecnología a las cuestiones medioambientales y reducir sus contribuciones negativas. Pero eso deja de lado la cuestión de cuánta energía está usando la IA de Google, escribe Devlin. (La IA necesita mucha energía).

Característica de diseño deshabilitada de Figma: El director ejecutivo de Figma, Dylan Field, dice que Figma desactivará temporalmente su función de inteligencia artificial «Make Design», que se decía imitaba el diseño de la aplicación Weather de Apple.

Meta cambió su etiqueta de IA: Después de que Meta comenzara a etiquetar fotografías con la etiqueta «Hecho con IA» en mayo, los fotógrafos se quejaron de que la empresa estaba etiquetando por error fotografías genuinas. Como informa Ivan, Meta ahora está cambiando la etiqueta en todas sus aplicaciones a «información de IA» en un esfuerzo por aplacar a los críticos.

Gatos, perros y pájaros robot: Brian escribe sobre cómo el estado de Nueva York está distribuyendo miles de animales robóticos a las personas mayores en medio de una «epidemia de soledad».

Apple está incorporando IA a Vision Pro: Los planes de Apple siguen al lanzamiento previamente anunciado de Apple Intelligence en iPhone, iPad y Mac. Según Mark Gurman de Bloomberg, la compañía también está trabajando para incorporar estas funciones a sus auriculares de realidad mixta Vision Pro.

trabajo de investigación de la semana

Los modelos de generación de texto como el GPT-4o de OpenAI se han convertido en algo fundamental en la tecnología. Las aplicaciones son raras que No Hoy en día la gente los usa para tareas que van desde completar correos electrónicos hasta escribir código.

Pero a pesar de la popularidad de los modelos, la forma en que estos modelos “comprenden” y generan texto con sonido humano aún no es una ciencia establecida. En un esfuerzo por descubrir las capas, investigadores de la Universidad Northeastern sierra Tokenización, o el proceso de dividir el texto en unidades llamado tokenización simbólico Para que los modelos puedan trabajar más fácilmente.

Los modelos actuales de generación de texto procesan el texto como una serie de tokens extraídos de un conjunto de «vocabulario de tokens», donde un token es una palabra («pez») o una palabra más grande («año» en «salmón» y puede corresponder a). un fragmento de «mon»). El vocabulario de tokens disponibles para el modelo generalmente está determinado por Primero La formación se desarrolla en base a las características de los datos utilizados para la formación. Pero los investigadores encontraron evidencia de que los modelos también evolucionan en función de las características de los datos utilizados para el entrenamiento. terminología subyacente que asigna grupos de tokens (por ejemplo, palabras de varios tokens como «Northeastern» y la frase «break a leg») a «unidades» semánticamente significativas.

Basándose en esta evidencia, los investigadores desarrollaron técnicas para «sondear» la terminología subyacente de cualquier modelo abierto. Del Llama 2 de Meta, extrajeron frases como «Lancaster», «jugador de la Copa del Mundo» y «Royal Navy», así como términos más oscuros como «jugador de la Bundesliga».

Este trabajo no ha sido revisado por pares, pero los investigadores creen que podría ser un primer paso hacia la comprensión de cómo se forman las representaciones textuales en los modelos, y que podría servir como una herramienta útil que conduzca a descubrir qué “sabe” un modelo determinado. .”

modelo de la semana

El equipo de Meta Research ha entrenado varios modelos para crear activos 3D (es decir, formas 3D con texturas) a partir de descripciones textuales, que son adecuados para su uso en proyectos como aplicaciones y videojuegos. Si bien existen muchos modelos de creación de formas, Meta afirma que es «de última generación» y admite renderizado basado físicamente, lo que permite a los desarrolladores «remodelar» objetos para darles la apariencia de una o más fuentes de luz. . » te deja.

Los investigadores combinaron dos modelos, AssetGen y TextureGen, inspirados en el generador de imágenes Emu de Meta, en un proceso llamado 3DGen para generar las formas. AssetGen convierte un mensaje de texto (por ejemplo, «T-Rex con un suéter de lana verde») en una malla 3D, mientras que TextureGen aumenta la «calidad» de la malla y agrega una textura para crear la forma final.

meta
Credito de imagen: meta

3DGen, que también se puede utilizar para rediseñar formas existentes, tarda unos 50 segundos de principio a fin en crear una nueva forma.

«Al combinar las características (de estos modelos), 3DGen logra una síntesis de objetos 3D de muy alta calidad a partir de señales textuales en menos de un minuto», escriben los investigadores en un informe. documento técnico«Cuando los artistas 3D profesionales los evalúan, la mayor parte del tiempo se prefiere el resultado de 3DGen a las alternativas de la industria, especialmente para indicaciones complejas».

Meta está listo para incorporar herramientas como 3DGen en sus esfuerzos de desarrollo de juegos de metaverso. listado de trabajoLa compañía quiere investigar y crear prototipos de juegos de realidad virtual, realidad aumentada y mixta creados con la ayuda de tecnología de inteligencia artificial generativa, posiblemente incluyendo generadores de formas personalizados.

bolsa de agarre

Como resultado de la asociación de las dos compañías anunciada el mes pasado, Apple puede obtener un puesto de observador en la junta directiva de OpenAI.

Bloomberg informes Phil Scheller, el ejecutivo de Apple responsable de liderar la App Store y los programas de Apple, se unirá a la junta directiva de OpenAI como segundo supervisor después de Dee Templeton de Microsoft.

Si se toma la medida, sería una notable demostración de fuerza por parte de Apple, que planea integrar ChatGPIT, la plataforma de chatbot impulsada por IA de OpenAI, con muchos de sus dispositivos este año, ofreciendo una amplia gama de funciones de IA. el grupo.

Apple no lo hará Pagar Según se informa, OpenAI sostiene que la exposición a las relaciones públicas es tan valiosa como el dinero en efectivo, o incluso más valiosa, gracias a la integración de ChatGPIT. De hecho, OpenAI puede acabar pagando Manzana, Se dice que Apple está considerando un acuerdo que le daría una parte de los ingresos de cualquier característica premium de ChatGPT que OpenAI traiga a la plataforma Apple.

Entonces, como señala mi colega Devin Coldway, esto coloca al principal inversor y aliado cercano de OpenAI, Microsoft, en la incómoda posición de subsidiar efectivamente la integración ChatGPT de Apple, con pocas consecuencias. Apple aparentemente obtiene lo que quiere, incluso si eso significa que sus socios tienen que resolver la disputa.

Source link