Nuove funzioni per Apple Intelligence

I developer potranno accedere al modello linguistico di grandi dimensioni integrato nel dispositivo.
“L’anno scorso abbiamo mosso i primi passi per offrire agli utenti un’intelligenza utile, rilevante, facile da usare, adattata al contesto e che protegge la loro privacy allo stesso tempo”, introduce Craig Federighi, vicepresidente senior di Software Engineering di Apple.
“Ora, i modelli che potenziano Apple Intelligence sono sempre più capaci ed efficienti, mentre stiamo integrando funzionalità in ancora più punti di ciascuno dei nostri sistemi operativi”, sottolinea.
Apple ha presentato novità legate alla sua proposta di intelligenza artificiale (IA) in occasione della conferenza WWDC25.
Apple Intelligence incorpora nuove funzionalità per gli utenti di dispositivi come iPhone, iPad, Mac, Apple Watch e Apple Vision Pro.
Da un lato, potenzia le relazioni tra le persone attraverso Live Translation, che promuoverà la comunicazione scritta e parlata come funzionalità integrata in Messaggi, FaceTime e Telefono.
D’altra parte, il gigante di Cupertino annuncia aggiornamenti nell’intelligenza visiva per eseguire più azioni con il contenuto dello schermo. Questa intelligenza è ora disponibile sullo schermo dell’iPhone per effettuare ricerche e azioni relative al contenuto delle applicazioni. Inoltre, permetterà di chiedere a ChatGPT informazioni su oggetti specifici.
Altri miglioramenti riguardano Image Playground, Genmoji e la creatività. Gli utenti avranno l’opportunità di combinare emoji e aggiungere descrizioni, e anche di modificare attributi personali dei loro familiari e amici per ottenere immagini. Apple ha spiegato che potranno accedere a nuovi stili in Image Playground tramite ChatGPT, come pittura a olio e arte vettoriale.
Apple Intelligence raggiunge il fitness con Workout Buddy su Apple Watch. Nel frattempo, Comandi Rapidi potrà usare Apple Intelligence direttamente e gli sviluppatori potranno accedere al modello fondamentale integrato nel dispositivo di Apple Intelligence.
“Stiamo facendo un enorme passo avanti dando agli sviluppatori accesso diretto al modello fondamentale”, valuta Craig Federighi, “permettendo loro di utilizzare un’intelligenza potente, veloce, progettata attorno alla privacy e disponibile anche quando gli utenti non hanno connessione”.
“Crediamo che questo spingerà una nuova gamma di esperienze intelligenti nelle app di cui gli utenti si fidano ogni giorno”, dice. “Non vediamo l’ora di vedere cosa creeranno gli sviluppatori”.