iOS 17: Personal Voice può clonare la propria voce in 15 minuti usando l’IA

Mancano poche settimane al Keynote del WWDC 2023, e Apple ha deciso di svelare alcune nuove funzionalità di Accessibilità di iOS 17 e macOS 14, destinate a rendere iPhone, iPad e Mac più facili da usare per coloro che hanno o sono a rischio di disabilità cognitive, visive, uditive, di conversazione e di mobilità. I nuovi sistemi operativi arriveranno solo alla fine del 2017, ma Cupertino ha deciso di mostrare in anteprima in occasione del Global Accessibility Awareness Day, che cade quest’anno giovedì 18 maggio.
“Oggi siamo entusiasti di condividere nuove incredibili funzionalità che si basano sulla nostra lunga storia nel rendere la tecnologia accessibile”, ha detto Tim Cook, “in modo che tutti abbiano l’opportunità di creare, comunicare e fare ciò che amano”.
Assistive Access
La prima nuova funzione è progettata per le persone con disabilità cognitive in modo che possano utilizzare con più facilità iPhone e iPad. Funziona a livello di singole app, è offre una interfaccia grafica semplificata o snella per abbassare i requisiti cognitivi.


Le app Telefono e FaceTime, ad esempio, sono state riunite in una singola app Chiamate progettata per essere più facile da usare, mentre Messaggi offre una funzione di videomessaggi e l’opzione di una tastiera solo emoji. Allo stesso modo, ci sono versioni “semplificate” delle app Fotocamera, Foto e Musica. Apple non spiega se gli sviluppatori di terze parti saranno in grado di creare versioni di Assistive Access delle loro app.
Infine, Assistive Access permetterà di personalizzare l’interfaccia del dispositivo a livello del sistema operativo, con la possibilità di scegliere un layout tradizionale su griglia o su righe, un po’ come le opzioni di visualizzazione della schermata iniziale dell’Apple Watch, che può mostrare le app come una griglia a nido d’ape o come un elenco alfabetico, che molti trovano più facile da usare.
Live Speech
Live Speech è una funzione text-to-speech per coloro che non hanno la capacità di parlare o difficoltà a farlo. Può essere utilizzata durante le conversazioni di persona quando si ha il dispositivo a portata di mano, ma può anche consentire agli utenti di iPhone, iPad e Mac di digitare le risposte durante le chiamate telefoniche e FaceTime e farle pronunciare ad alta voce.
Apple spiega anche che l’utente sarà in grado di salvare frasi comunemente usate per risposte rapide.
Personal Voice
Strettamente collegato al Live Speech, Personal Voice è progettato per coloro che al momento non hanno difficoltà nel parlare, ma rischiano di averle. L’idea è di passare 15 minuti a leggere le richieste di testo ad alta voce sul proprio iPhone o iPad, che utilizzerà quindi questi dati audio e l’apprendimento automatico per creare una voce digitale che corrisponda alla propria. Quindi, se parlare diventerà difficile o impossibile in futuro per qualsiasi motivo, si è in grado di utilizzare la funzione Live Speech per effettuare chiamate e inviare messaggi con una voce simile alla propria. Apple assicura che i dati saranno mantenuti privati e sicuri per prevenire abusi da parte di terzi.
Altre funzionalità
Le novità più rilevanti illustrate nel comunicato Apple sono sicuramente quelle citate, ma ce ne sono altre che semplificheranno l’uso dell’iPhone per chi ha delle disabilità.
La modalità di rilevamento in Magnifier, ad esempio, guadagna una nuova funzione Point and Speak. In pratica un utente ipovedente muovendo il dito sui pulsanti di un elettrodomestico, sentirà l’iPhone leggere ad alta voce le rispettive etichette.
La dimensione del testo sarà più facile da regolare tra le app Mac. Coloro che sono sensibili alle animazioni veloci saranno in grado di mettere in pausa automaticamente le GIF in Messaggi e Safari. E sarà possibile per le persone sorde o con problemi di udito accoppiare direttamente gli apparecchi acustici certificati Made for iPhone con i loro Mac.
Infine, Apple ha anche fatto sapere che sta espandendo il suo servizio SignTime, che offre interpreti della lingua dei segni per i clienti dell’Apple Store e coloro che contattano il supporto Apple, in più Paesi. Ci saranno sessioni negli Apple Store per presentare ai clienti le funzionalità di accessibilità, mentre le raccolte curate di spettacoli, film e serie relative a problemi di accessibilità o create da persone della comunità di disabili saranno mostrate su Podcast e sull’app Apple TV.


6 commenti
Personal Voice è inquietante… qualcuno potrebbe avere la bella pensata di registare la voce di un proprio caro, e poi dopo la sua dipartita instaurara un dialogo…
Per questa tecnologia c’è bisogno di regole serie e condivise.
Questa volta voglio esprimere la mia personale critica riguardo a due cose (tra esse correlate): intelligenza artificiale e Personal Voice.
Per quanto mi riguarda, l’intelligenza artificiale (che termine orrendo: ma chi significa intelligenza artificiale?), non è altro che un ampliamento del linguaggio basic: if then. Cioè, se succede questo fai questa cosa. Punto. È un calderone pieno di informazioni e questa pseudo IA, pesca in questo calderone. Se le informazioni in questo calderone non ci sono, l’IA non può fare proprio niente o, peggio ancora, farneticare. La cosa grave è che “questi” riescono a convincere la massa che l’IA sia qualcosa di rivoluzionario, alludendo a chissà quali algoritmi ecc ecc. If then. Punto. Niente di umano e niente di miracoloso. Forse tra mille secoli… chissà!
Personal Voice? Hanno trovato un modo per clonare la voce (dando il merito all’IA), così come un po di anni fa c’erano programmi che toglievano lo sfondo alle fotografie (senza IA). Ma Personal Voice è una innovazione? Io non vorrei mai che la mia voce fosse clonata perché, se lo fosse, sarebbe irreale. Poi potrebbe essere una funzione che criminali potrebbero usare contro di me, facendo passare per mio un discorso che non ho mai fatto. Poi vallo a dimostrare che non ero io.
Non sono contro il progresso (la tecnologia mi affascina), ma faccio un distinguo dalle innovazioni utili e da quelle inutili (e dannose), come appunto Personal Voice. Chi non può parlare (o si stanca), continui ad utilizzare le voci generiche che già esistono.
Personal Voice è una funzione pensata per chi ha una patologia che comporterà la perdita della voce, rimane tutto sull’iPhone ed è utile per chi desidera conversare quando non potrà più farlo senza usare l’attuale tecnologia “stupida” che riproduce una voce robotica. È un bel passo avanti. Nessun criminale potrà usare Personal Voice perchè dovrebbe avere accesso all’iPhone visto che tutto rimane sul dispositivo.
Ah, ok. Non avevo ben capito. In tal caso è una ottima funzione per chi è meno fortunato. Pardon. Grazie per la spiegazione, Stefano.
due considerazioni:
“I nuovi sistemi operativi arriveranno solo alla fine del 2017” …
la ricomposizione della tua voce è già usata da truffaldini per i contratti di utilities …