Apple va a por todas con la inteligencia artificial y nos da una importante pista de lo que llegará al iPhone con iOS 18

El nuevo modelo de inteligencia artificial de Apple arroja varias pistas sobre lo que podríamos ver en iOS 18 y macOS 15

Openelm
9 comentarios Facebook Twitter Flipboard E-mail

La antesala de lo que está por llegar a Apple en materia de inteligencia artificial está siendo cuando menos interesante. Será en la WWDC 2024, que comienza el 10 de junio, cuando la firma dirigida por Tim Cook haga su puesta de largo en este área. Un Cook que, por cierto, ya confirmó hace tiempo las serias intenciones de Apple por dar un golpe en la mesa este mismo año. Y no una vez solo, sino en hasta dos ocasiones.

Que Apple consiga llegar al nivel de OpenAI, Microsoft, Google y el resto de competidores es a día de hoy un misterio. Por lo pronto, va presentando de forma silenciosa nuevos avances como los modelos de MM1, ReAML o MGIE. El que han presentado esta semana se llama OpenELM y supone una importante pista de lo que podría llegar en iOS 18, macOS 15 y el resto de sistemas.

Así se compone OpenELM, con una ejecución íntegramente local

Una de las obsesiones que Apple tiene desde hace años es la de la privacidad y los modelos de inteligencia artificial más conocidos, como ChatGPT, funcionan mediante conexión a Internet, dado que necesitan comunicarse con un servidor externo. Esto es algo tremendamente positivo de cara a ser funcional en prácticamente cualquier dispositivo, pese a que su hardware no sea el mejor.

Sin embargo, la ejecución de esos modelos vía Internet tiene una clara desventaja de cara a la privacidad. En OpenELM no ocurre eso, dado que se ejecuta todo en local y ha sido probado ya en dispositivos de la propia Apple. Esto le suma otra ventaja como que su ejecución es mucho más rápida, aunque tampoco podemos obviar sus limitaciones en lo que a disponibilidad se refiere, dado que se necesitará un hardware muy específico.

OpenELM, que ha sido descrito por Apple en un completo paper, no es en realidad un único modelo, sino ocho LLM (siglas de lo que traducimos como modelo de lenguaje multimodal). La mitad de esos modelos fueron entrenados con la biblioteca de CoreNet y también con datos de Reddit, GitHub y Wikipedia, con una cantidad de entre 270 y 3.000 millones de parámetros.

Es open source y se orienta tanto a portátiles como móviles

Codigo El código de OpenELM está disponible para todos al ser open source

Se trata de un modelo de código abierto que está ya disponible. Esto es algo que hacen, según dicen, con el fin de "empoderar y enriquecer a la comunidad". En el documento presentado afirman haber logrado ya ejecutarlo en dispositivos como un MacBook Pro M2 Max con 64 GB de memoria, así como un un ordenador no especificado con un Intel Core i9-13900KF con 64 GB de memoria y una GPU de NVIDIA, la RTX 4090.

En cualquier caso, se espera que también pueda ser ejecutado en dispositivos móviles como un iPhone e incluso en Android. Por ahora no parecen claros los requerimentos técnicos específicos para ello. En cualquier caso, como ya advertíamos anteriormente, el hecho de que sea una ejecución local resta viabilidad a que sea una IA capaz de llegar a todo tipo de terminales.

Respecto a la precisión de OpenELM, Apple afirma que consigue elevarla al máximo gracias a un trabajo de escala en capas dentro de cada modelo, pudiendo así asignar de forma eficiente los parámetros. No obstante, no acaban por darle una confianza ciega a los resultados.

Por ahora, no sabemos exactamente la relación que habrá entre todos estos modelos presentados y lo que acabe llegando a iOS 18 o macOS 15. Es todo un tanto difuso por ahora, aunque hay ciertos indicios de que podríamos ver distintos modelos de IA en función del dispositivo.

Eso último lo decimos a colación del funcionamiento de la mayoría de modelos propios presentados por Apple y que se ejecutan en local, lo cual daría para que pudiese funcionar en sus terminales con mejor hardware. Sin embargo, con el fin de no dejar fuera a todos los antiguos (y menos potentes), podría asociarse con Google y así tener un modelo mixto o íntegramente de terceros. El 10 de junio saldremos de dudas.

Imagen de portada | Generada con DALL-E 3 y Photoshop

En Applesfera | La inteligencia artificial que quiero en mi iPhone y Mac no sólo existe ya, sino que la ha presentado la propia Apple

En Applesfera | iPhone 16: fecha de lanzamiento, precio, modelos y todo lo que creemos saber sobre ellos

Inicio