Nel corso del keynote di apertura della Worldwide Developers Conference 2024 (WWDC24), Apple ha finalmente annunciato una delle novità più attese della giornata: la sua rivoluzionaria intelligenza artificiale generativa Apple Intelligence.
Disponibile a partire dal prossimo autunno in versione beta, questo nuovo sistema sarà in grado di gestire un’ampia gamma di compiti preservando il contesto, la velocità e la privacy dell’utente. In un post sul suo sito ufficiale, l’azienda ha spiegato:
“Apple Intelligence sfrutta la potenza del chip Apple per comprendere e creare linguaggio e immagini, eseguire azioni nelle app e attingere dal contesto personale per semplificare e velocizzare le attività di tutti i giorni.”
In pratica, Apple Intelligence utilizza modelli linguistici di grandi dimensioni (LLM) per riassumere e dare priorità a notifiche e messaggi, creare immagini personalizzate (anche attraverso “Genmoji” e Image Playground) e persino svolgere compiti per conto dell’utente.
Ad esempio, si potrà chiedere all’IA di spostare un file, di riprodurre un podcast condiviso in precedenza o di inviare gli auguri a un amico descrivendo con un prompt l’immagine da allegare al testo.
L’utente potrà anche cercare tra i video e creare automaticamente filmati ricordo (completi di colonne sonore di Apple Music) in base ai criteri del linguaggio naturale.
Tuttavia, Apple ha dichiarato che non scenderà a compromessi sulla privacy.
I chip A17 Pro e della serie M possono gestire le attività sul dispositivo e mantenere le informazioni a livello locale. È inoltre possibile controllare chi accede ai propri dati, con il Private Cloud Compute che attingerà da LLM più grandi basati su server, inviando solo i dati necessari e impedendo che vengano archiviati altrove.
I ricercatori esterni possono persino studiare l’utilizzo dei dati di Apple per assicurarsi che non vi siano comportamenti scorretti.
Come migliorerà Siri con Apple Intelligence?
Grazie all’integrazione con Apple Intelligence, Siri offrirà un’esperienza più che mai “utile e pertinente“.
Attraverso l’avanzata capacità di comprensione del linguaggio naturale del sistema, Siri potrà interagire in modo più personale, naturale e contestualmente pertinente, semplificando e velocizzando le attività quotidiane.
Si può interagire con Siri con la voce o scrivendo, passando da una modalità all’altra quando si preferisce.
Basterà ad esempio chiedere all’assistente di cercare una foto della nostra patente di guida, estrarre i dati e inserirli in un modulo automaticamente.
Allo stesso modo, Siri è in grado di capire cosa appare sul display e col tempo interagirà con i contenuti dell’utente in un maggior numero di app. Ad esempio, se un contatto vi invia il suo nuovo indirizzo in Messaggi, basterà dire “Aggiungi questo indirizzo alla scheda del contatto”.
Per integrare altre funzionalità più avanti nel tempo, gli sviluppatori avranno a disposizione nuove API e framework per definire le azioni all’interno delle loro applicazioni.
Apple è aperta all’utilizzo di Google Gemini e di altri modelli IA su iOS
Secondo Craig Federighi, Senior Software Engineering VP di Apple, l’azienda di Cupertino vuole che gli utenti di iOS, iPadOS e macOS possano scegliere tra vari modelli di intelligenza artificiale (IA), compreso Google Gemini.
In una conversazione con la YouTuber Justine Ezarik (alias iJustine), Federighi ha spiegato che Apple vuole permettere agli utenti di “scegliere il modello IA che preferiscono” e che Gemini potrebbe essere un’opzione. Ha poi aggiunto che al momento non c’è “nulla da annunciare”.
Di recente sono circolate voci secondo cui Apple stesse esplorando una partnership con Google per integrare Gemini con iOS e altre piattaforme. Tuttavia, sembra che l’accordo alla fine non si sia concretizzato.
Quando iOS 18, iPadOS 18 e macOS Sequoia arriveranno nel corso dell’anno, si affideranno per lo più al modello IA interno di Apple Intelligence. ChatGPT (e Gemini, se adottato) fornirà un ulteriore livello di funzionalità piuttosto che assumere compiti chiave.
Le dichiarazioni di Federighi sottolineano la corsa all’inserimento di IA più sofisticate nelle piattaforme informatiche. Google spera di integrare Gemini in Android e ChromeOS, mentre Microsoft si è spinta fino a lanciare il programma Copilot+ per PC, che vanta sistemi Windows ben equipaggiati per gestire l’IA basata su GPT.
Tutte e tre le aziende permettono ai modelli IA concorrenti di funzionare sui loro dispositivi, mentre ne sviluppano di propri.
Apple, tuttavia, è l’unica che sta cercando di integrare nel proprio sistema operativo sia i modelli di prima generazione sia quelli di terze parti. Non è detto che Gemini possa essere d’aiuto qualora venga reso disponibile, ma di certo iOS potrebbe distinguersi semplicemente perché offre agli utenti una scelta che va oltre le app e i launcher di terze parti.
Leggi anche: Xbox Series X sarà disponibile solo in versione digitale durante le festività natalizie
Disponibilità e costi
Apple Intelligence sarà integrata in iOS 18, iPadOS 18 e macOS Sequoia e sarà utilizzabile gratuitamente. È in arrivo anche in Xcode per aiutare gli sviluppatori a produrre app basate su Swift.
Sarà possibile provarlo in versione beta a partire da quest’estate, ma per poterlo utilizzare è necessario disporre almeno di un iPhone 15 Pro, di un iPad o di un Mac basato su M1.
Il rilascio è una diretta risposta al sempre più crescente utilizzo dell’intelligenza artificiale in Android da parte di Google e a Copilot di Microsoft. È anche una risposta non troppo velata alle dichiarazioni di Samsung, che ha lasciato intendere che prima o poi farà pagare le funzioni AI dei Galaxy.
Apple sta rendendo l’IA generativa un elemento di sistema incluso senza costi aggiuntivi e potenzialmente con un’integrazione più profonda di quella che Gemini ha attualmente con Android o ChromeOS.