El lunes en la WWDC 2024, Apple presentó Apple Intelligence, su tan esperado esfuerzo en todo el ecosistema en IA generativa. Como lo revelaron rumores anteriores, la nueva función se llama Apple Intelligence (IA, ¿entiendes?). La compañía prometió que esta función se creará con seguridad y experiencias altamente personalizadas.

«Lo más importante es que tiene que tener sentido para usted y estar basado en su contexto individual, como su rutina diaria, sus relaciones, sus interacciones y más», dijo el director ejecutivo Tim Cook. «Y, por supuesto, debe construirse teniendo en cuenta la privacidad desde el principio. Todo esto va más allá de la inteligencia artificial. Esto es inteligencia personal, y este es el próximo gran paso para Apple».

La compañía ofrece esta función como parte integral de todos sus diversos sistemas operativos, incluidos iOS, macOS y el último VisionOS.

Credito de imagen: Manzana

«Debería ser lo suficientemente potente como para ayudarle con las cosas que más le importan», afirmó Cook. “Debe ser intuitivo y fácil de usar. Debe estar profundamente integrado en sus experiencias con el producto. Lo más importante es que debe entenderlo y basarse en su contexto personal, como su rutina diaria, sus relaciones y, por supuesto, su experiencia. «Tiene que integrarse teniendo en cuenta la privacidad. Se trata de inteligencia personal, y ese es el próximo gran paso adelante para Apple».

«La inteligencia de Apple se basa en sus datos personales y su contexto», afirmó el vicepresidente senior Craig Federighi. La función funcionará eficazmente con todos los datos personales ingresados ​​por los usuarios en aplicaciones como Calendario y Mapas.

El sistema se basa en un gran modelo de lenguaje e inteligencia. Según la empresa, gran parte del proceso se realiza localmente y utiliza la última versión de Apple Silicon. «Muchos de estos modelos funcionan íntegramente en el dispositivo», afirmó Federighi durante el evento.

Dicho esto, estos sistemas de consumo todavía tienen limitaciones. Por lo tanto, parte del trabajo pesado debe realizarse fuera del dispositivo, en la nube. Apple incluye computación en la nube privada en esta oferta. El backend utiliza servicios que ejecutan chips de Apple para mejorar la privacidad de estos datos tan personales.

Apple Intelligence también incluye la que probablemente sea la mayor actualización de Siri desde que se anunció hace más de una década. La compañía dice que la característica está «más profundamente integrada» en su sistema operativo. En el caso de iOS, esto significa cambiar el familiar ícono de Siri por un borde azul brillante alrededor del escritorio mientras está en uso.

Siri ya no es sólo una interfaz de voz. Apple también está agregando la capacidad de escribir consultas directamente en el sistema para acceder a su inteligencia generativa basada en IA. Esto supone un reconocimiento de que la voz a menudo no es la mejor interfaz para estos sistemas.

Credito de imagen: Manzana

Mientras tanto, App Intent ofrece la posibilidad de integrar el Asistente directamente en diferentes aplicaciones. Comenzará con aplicaciones propias, pero la empresa también abrirá el acceso a terceros. Esta característica adicional mejorará drásticamente las cosas que Siri puede hacer directamente.

La oferta también abrirá la multitarea de una manera más profunda, permitiendo una forma de compatibilidad entre aplicaciones. Esto significa que, por ejemplo, los usuarios no tendrán que cambiar repetidamente entre Calendario, Correo y Mapas para programar una reunión.

Apple Intelligence se integrará en la mayoría de las aplicaciones de la empresa. Esto incluye cosas como la capacidad de ayudar a redactar mensajes dentro de Mail (con aplicaciones de terceros) o simplemente usar Smart Reply para responder. Esta, en particular, es una característica que Google ha introducido en Gmail desde hace algún tiempo y continúa desarrollándola utilizando su propio modelo de IA generativa, Gemini.

La compañía también está incorporando esta función a los emoji con Zenmoji (sí, ese es el nombre). Esta función utiliza campos de texto para crear emoji personalizados. Mientras tanto, Image Playground es un generador de imágenes en el dispositivo integrado en aplicaciones como Messages, Keynote, Pages y Freeform. Apple también traerá una aplicación Image Playground independiente a iOS y abrirá el acceso a la oferta a través de API.

Credito de imagen: Manzana

Mientras tanto, Image Wand es una nueva herramienta para Apple Pencil que permite a los usuarios rodear texto para crear imágenes. Efectivamente, es la versión de Apple de la búsqueda Circle Two de Google, que se centra únicamente en imágenes.

La búsqueda también está integrada para contenido como fotos y videos. La empresa promete búsquedas en lenguaje más natural dentro de estas aplicaciones. Los modelos GenAI también facilitan la creación de presentaciones de diapositivas dentro de las fotografías, nuevamente utilizando indicaciones en lenguaje natural. Apple Intelligence se implementará en las últimas versiones de sus sistemas operativos, incluidos iOS y iPadOS 18, macOS Sequoia y visionOS 2. Está disponible de forma gratuita con esas actualizaciones.

Esta función vendrá en dispositivos iPhone 15 Pro y M1 Mac y iPad. El iPhone 15 estándar no tendrá esta función, probablemente debido a limitaciones del chip.

Como se esperaba, Apple también anunció una asociación con OpenAI que lleva ChatGPT a ofertas similares a Siri. La función impulsada por GPT 4.0 utiliza la generación de imágenes y texto de esa empresa. La oferta brindará a los usuarios acceso sin tener que registrarse para obtener una cuenta o pagar una tarifa (aunque aún pueden actualizar a premium).

Llegará a iOS, iPadOS y macOS a finales de este año. La compañía dice que también integrará otros LLM de terceros, aunque no proporcionó más detalles. Parece que Gemini de Google encabeza la lista.

Source link