Hola amigos, bienvenidos al boletín informativo periódico sobre IA de TechCrunch.

Esta semana en AI, los sellos musicales acusaron a Udio y Suno, dos nuevas empresas que desarrollan generadores de canciones impulsados ​​por AI, de infracción de derechos de autor.

La RIAA, la organización comercial que representa a la industria discográfica de Estados Unidos, presentó el lunes demandas contra las empresas de Sony Music Entertainment, Universal Music Group, Warner Records y otras. Estas demandas afirman que Udio y Suno entrenaron modelos de IA generativa basados ​​en sus plataformas en la música de los sellos, pero no pagaron a esos sellos ninguna compensación, y pidieron una compensación de 150.000 dólares por cada trabajo supuestamente infringido.

Los sellos dijeron en sus quejas: «La producción de música sintética podría saturar el mercado con contenido generado por máquinas, que competiría directamente con las grabaciones sonoras genuinas, abaratándolas y, en última instancia, suprimiéndolas, en las que se basa el servicio».

Estas demandas se suman a un número creciente de demandas contra proveedores de IA generativa, incluidas grandes empresas como OpenAI, que plantean prácticamente el mismo argumento: las empresas que se capacitan en obras protegidas por derechos de autor deberían pagar a los titulares de derechos, o al menos compensarles, se les debe dar crédito, y ellos lo hacen. Se les debe permitir optar por no participar en la capacitación si así lo desean. Los proveedores han reclamado durante mucho tiempo protecciones de uso legítimo, afirmando que los datos protegidos por derechos de autor con los que entrenan son públicos y que sus modelos realizan un trabajo transformador, no plagio.

Entonces, ¿cómo darán su veredicto los tribunales? Estimado lector, ésta es la pregunta de los mil millones de dólares y llevará mucho tiempo resolverla.

Quizás esté pensando que esto sería un gran problema para los titulares de derechos de autor, porque creciente Prueba Que los modelos generativos de IA pueden casi (en voz alta) resucitar Acerca de) reproducir el arte, libros, canciones, etc. protegidos por derechos de autor, exactamente en los que están capacitados. Pero también existe la consecuencia de que los proveedores de IA generativa salen ilesos, y Google debe su fortuna a sentar este precedente trascendental.

Hace más de una década, Google comenzó a escanear millones de libros para crear una colección para Google Books, una especie de motor de búsqueda de contenido literario. Los autores y editores demandaron a Google por esta práctica, alegando que reproducir su IP en línea constituye una infracción. Pero perdieron. En la apelación, un tribunal sostuvo que las copias de Google Books tenían un «propósito transformador altamente creíble».

Los tribunales también pueden decidir que la IA generativa tiene un «propósito transformador altamente creíble» si los demandantes no logran demostrar que los modelos de los proveedores realmente cometen plagio desenfrenado. O, como dijo Alex Reisner de The Atlantic propuesta deNo puede haber una decisión única sobre si la tecnología de IA generativa infringe la legislación en su conjunto. Los jueces pueden determinar los ganadores modelo por modelo, caso por caso, teniendo en cuenta el resultado que generó cada uno.

Mi colega Devin Koldewey lo resumió en un artículo esta semana: «No todas las empresas de inteligencia artificial dejan su huella tan generosamente en la escena del crimen». A medida que avanza la demanda, podemos estar seguros de que los proveedores de IA cuyos modelos de negocio dependen de los resultados están tomando notas detalladas.

noticias

Retraso del modo de voz avanzado: OpenAI ha retrasado el lanzamiento de un modo de voz avanzado para su plataforma de chatbot basada en IA ChatGPIT, una experiencia de conversación inmersiva en tiempo real. Pero nadie se queda con las manos vacías en OpenAI, que también esta semana adquirió la startup de colaboración remota Multi y lanzó un cliente macOS para todos los usuarios de ChatGPT.

La estabilidad proporciona un salvavidas: Stability AI, fabricante del modelo abierto de generación de imágenes Stable Diffusion, con problemas financieros, fue rescatado por un grupo de inversores entre los que se encontraba el fundador de Napster, Sean Parker, y el ex director ejecutivo de Google, Eric Schmidt. La compañía renunció a sus préstamos y nombró a un nuevo director ejecutivo, el ex director de Weta Digital, Prem Akkaraju, como parte de un esfuerzo más amplio para fortalecer su posición en el panorama ultracompetitivo de la IA.

Géminis llega a Gmail: Google está introduciendo un nuevo panel lateral de inteligencia artificial con tecnología Gemini en Gmail que puede ayudarlo a redactar correos electrónicos y resumir hilos. El mismo panel lateral también llegará al resto del conjunto de aplicaciones de productividad del gigante de las búsquedas: Docs, Sheets, Slides y Drive.

Curador impresionante: El cofundador de Goodreads, Otis Chandler, lanzó Smashing, una aplicación de recomendación de contenido impulsada por la comunidad y la inteligencia artificial que tiene como objetivo ayudar a los usuarios a conectarse con sus intereses descubriendo las gemas ocultas de Internet. Smashing proporciona resúmenes de noticias, aspectos destacados y citas interesantes, identifica automáticamente temas e hilos de interés para usuarios individuales y anima a los usuarios a dar me gusta, guardar y comentar artículos.

Apple niega la IA de Meta: Unos días más tarde Wall Street Journal El informe decía que Apple y Meta estaban en conversaciones para integrar los modelos de IA de Meta. Mark Gurman de Bloomberg Dijo que el fabricante del iPhone no estaba planeando tal movimiento. Bloomberg dijo que Apple ha dejado de lado la idea de poner la IA de Meta en el iPhone debido a preocupaciones de privacidad, y también ha promocionado la idea de asociarse con una red social que a menudo es criticada por sus políticas de privacidad.

trabajo de investigación de la semana

Tenga cuidado con los chatbots de influencia rusa. Es posible que estén justo debajo de su nariz.

A principios de este mes, Axios destacó un Estudiar NewsGuard, una organización que lucha contra la desinformación, descubrió que los principales chatbots de IA están repitiendo extractos de campañas de desinformación rusas.

NewsGuard ingresó 10 chatbots importantes, incluidos ChatGPT de OpenAI, Cloud de Anthropic y Gemini de Google, en varias docenas de mensajes que preguntaban sobre historias plantadas por propagandistas rusos, en particular el fugitivo estadounidense John Mark Dougan. Según la empresa, los chatbots proporcionaron información falsa en el 32% de los casos, y los informes falsos escritos en ruso se presentaron como hechos.

El estudio muestra que el escrutinio sobre los proveedores de IA ha aumentado a medida que se acerca la temporada electoral en Estados Unidos. En la Conferencia de Seguridad de Múnich celebrada en febrero, Microsoft, OpenAI, Google y varias otras importantes empresas de inteligencia artificial acordaron tomar medidas para detener la propagación de deepfakes y desinformación relacionada con las elecciones. Pero el mal uso de la plataforma continúa a gran escala.

«Este informe realmente destaca por qué la industria necesita prestar especial atención a las noticias y la información», dijo a Axios el codirector ejecutivo de NewsGuard, Steven Brill. «Por ahora, no confíen en las respuestas dadas por la mayoría de estos chatbots sobre temas relacionados con noticias, especialmente temas controvertidos».

modelo de la semana

Investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT afirman haber desarrollado un modelo, DenseAV, que puede aprender un lenguaje prediciendo lo que ve y oye, y viceversa.

Los investigadores, dirigidos por Mark Hamilton, estudiante de doctorado del MIT en ingeniería eléctrica e informática, se inspiraron para crear DenseAV en los métodos de comunicación no verbal de los animales. «Pensamos que tal vez necesitáramos utilizar audio y vídeo para el aprendizaje de idiomas», dijo al MIT CSAIL. Oficina de prensa«¿Hay alguna manera de que podamos dejar que un algoritmo mire televisión todo el día y descubra de qué estamos hablando?»

DenseAV procesa solo dos tipos de datos (audio y visual) y lo hace por separado, «aprendiendo» comparando pares de señales de audio y visuales para determinar qué señales coinciden y cuáles no. Entrenado con un conjunto de datos de 2 millones de videos de YouTube, DenseAV puede identificar objetos por sus nombres y sonidos al encontrar todas las coincidencias posibles entre clips de audio y píxeles de una imagen y luego agregarlos.

Por ejemplo, cuando DenseAV escucha el ladrido de un perro, una parte del modelo se centra en el lenguaje, como la palabra «perro», mientras que la otra parte se centra en los sonidos de los ladridos. Los investigadores dicen que esto muestra que DenseAV no sólo puede aprender el significado de las palabras y la ubicación de los sonidos, sino que también puede aprender a distinguir entre estas conexiones «intermodales».

De cara al futuro, el equipo tiene como objetivo crear sistemas que puedan aprender de cantidades masivas de datos de video o solo audio y mejorar su trabajo con modelos más grandes, posiblemente derivados de modelos de comprensión del lenguaje, para mejorar el rendimiento.

bolsa de agarre

Nadie puede culpar a la CTO de OpenAI, Mira Muratti no ser consistentemente franco,

Durante una charla informal en la Escuela de Ingeniería de Dartmouth, Murati reconoció que sí, la IA generativa eliminará algunos trabajos creativos, pero sugirió que esos trabajos «probablemente no deberían haber existido en primer lugar».

Y añadió: «Definitivamente creo que muchos empleos cambiarán, algunos se perderán y otros crecerán». «La verdad es que todavía no entendemos qué impacto tendrá la IA en los empleos».

A las personas creativas no les agradaron los comentarios de Murati, y no es ninguna sorpresa. Dejando a un lado la jerga nostálgica, OpenAI, al igual que los ya mencionados Udio y Suno, se enfrenta a litigios, críticos y reguladores que alegan que se está beneficiando de las obras de los artistas sin compensarlos.

OpenAI ha prometido recientemente lanzar herramientas que darán a los creadores más control sobre cómo se utiliza su trabajo en sus productos, y continúa cerrando acuerdos de licencia con editores y titulares de derechos de autor. Pero la compañía en realidad no está presionando por un ingreso básico universal, ni liderando ningún esfuerzo significativo para volver a capacitar o mejorar la fuerza laboral afectada por su tecnología.

recientemente Pedazo El Wall Street Journal descubrió que los trabajos por contrato que requieren redacción, codificación y traducción básicas están desapareciendo. Estudiar Un informe publicado en noviembre pasado mostró que después del lanzamiento de ChatGPT de OpenAI, los autónomos encontraron menos trabajos y sus ingresos también cayeron significativamente.

La misión declarada de OpenAI, al menos hasta que empresa con fines de lucroEl objetivo es «garantizar que la inteligencia artificial general (AGI), sistemas de IA que generalmente son más inteligentes que los humanos, beneficie a toda la humanidad». No ha alcanzado el AGI. Pero, ¿no sería admirable si OpenAI, fiel a su parte de «beneficiar a toda la humanidad», reservara incluso una pequeña parte de sus ingresos ($3.4 mil millones+), para que no queden atrapados en la avalancha generativa de IA?

Puedo soñar, ¿no?

Source link