venerdì, Novembre 15, 2024

Le nuove innovazioni di Apple in materia di accessibilità iOS sono pronte a rispondere alle esigenze non soddisfatte

Due delle funzionalità di accessibilità più avanzate di Apple Annunciato la scorsa settimana Celebrare la Giornata mondiale della sensibilizzazione sull’accessibilità il 16 maggio rappresenterebbe un punto di svolta per le fasce meno servite della comunità dei disabili.

Tradizionalmente, gli sforzi per l’accessibilità digitale relativi sia all’hardware che al software tendono a concentrarsi sugli utenti non vedenti e ipovedenti, così come, più recentemente, su quelli con perdita dell’udito poiché i sottotitoli diventano più diffusi.

Apple ha ora annunciato che entro la fine dell’anno lancerà nuove funzionalità di tracciamento oculare che consentiranno agli utenti con gravi disabilità legate alla funzione e al movimento della mano di controllare il proprio iPhone o iPad utilizzando solo gli occhi. Integrato direttamente nel sistema operativo grazie all’intelligenza artificiale e al machine learning, l’eye tracking sfrutta la fotocamera RGB integrata nel dispositivo per consentire agli utenti di navigare tra app e menu e poi attivare gli elementi sullo schermo semplicemente “rimanendo” su di esso e fissando lo sguardo . L’impostazione del tracciamento oculare è semplice fin da subito con una calibrazione a nove punti che prevede il tracciamento visivo dei punti sullo schermo, che è tutto ciò che serve per iniziare.

Il colosso tecnologico con sede a Cupertino ha in serbo qualcosa di speciale anche per chi ha problemi di parola e di comunicazione come quelli causati dalla paralisi cerebrale o dalla sclerosi laterale amiotrofica.

Le scorciatoie vocali consentiranno agli utenti di abbinare pronunce o suoni personalizzati a comandi specifici utilizzando Siri. Ciò potrebbe includere qualsiasi cosa, dall’impostazione di un timer, al controllo delle previsioni del tempo o alla chiamata di un amico. Questo sarà addestrabile tramite l’apprendimento automatico semplicemente chiedendo all’utente di ripetere l’espressione tre volte. Nel frattempo, Apple continuerà a sviluppare il proprio lavoro audio personale pubblicato lo scorso anno con iOS 17 su una funzionalità che aiuta le persone che potrebbero perdere la parola a causa di condizioni progressive a creare una simulazione digitale della propria voce utilizzando i dispositivi Apple che possono poi essere utilizzati in conversazione. L’imminente funzionalità di ascolto vocale atipico consentirà a chi ha capacità di parola e comunicazione limitate di interagire con Siri.

Durante uno speciale evento stampa tenutosi la scorsa settimana, Apple non ha specificato la tempistica esatta del rilascio di queste funzionalità, ma ha dichiarato che dovrebbero arrivare entro la fine dell’anno.

Alcune altre versioni premium degne di nota annunciate durante l’evento includono Music Haptics, che aiuta gli utenti non udenti o con problemi di udito a sperimentare la musica utilizzando il Taptic Engine dell’iPhone, che può attivare clic, trame e alcune vibrazioni in base al suono specifico della nota. La tecnologia verrà applicata a milioni di brani del catalogo Apple Music e sarà resa disponibile anche come API (Application Programming Interface) a sviluppatori di terze parti.

“Crediamo fermamente nel potere di trasformazione dell’innovazione per arricchire la vita”, ha affermato il CEO di Apple Tim Cook in una dichiarazione ai media. Ecco perché da quasi 40 anni Apple sostiene la progettazione inclusiva incorporando l’accessibilità nel cuore dei nostri dispositivi e software. Stiamo costantemente spingendo oltre i confini della tecnologia e queste nuove funzionalità riflettono il nostro impegno di lunga data nel fornire la migliore esperienza possibile a tutti i nostri utenti.

“Ogni anno apriamo nuovi orizzonti in termini di accessibilità”, ha aggiunto Sarah Herlinger, direttore senior della Global Accessibility Policy di Apple. “Queste nuove funzionalità avranno un impatto sulla vita di un’ampia gamma di utenti, fornendo nuovi modi di comunicare e controllare i loro dispositivi e navigare nel mondo.

Metodi multipli

Quando si parla di navigare nel mondo, il colosso della tecnologia non limita le sue ultime innovazioni in materia di accessibilità all’ecosistema mobile iOS. CarPlay è compatibile con una serie di miglioramenti in termini di accessibilità sotto forma di funzioni di controllo vocale e riconoscimento vocale per aiutare le persone con problemi di udito visualizzando sullo schermo informazioni sui suoni rilevati, come le sirene dei servizi di emergenza. C’è anche qualcosa per i viaggiatori che potrebbero voler guardare lo schermo del proprio telefono mentre sono in movimento ma vogliono evitare il mal d’auto. La nuova funzionalità di segnali di movimento del veicolo mostrerà punti sullo schermo del dispositivo la cui direzione viene regolata in base al movimento del veicolo, modificando la percezione del cervello della disconnessione tra ciò che vede e ciò che sente durante il movimento, una causa comune di mal d’auto.

Gli utenti delle cuffie Apple Vision Pro di fascia alta recentemente rilasciate da Apple saranno presto in grado di sfruttare i sottotitoli in tempo reale per aiutare le persone con problemi di udito a comprendere meglio e a partecipare alle conversazioni. Saranno inoltre apportati ulteriori miglioramenti alle funzionalità di assistenza per ipovedenti del dispositivo, che includeranno opzioni per ridurre la trasparenza, invertire i colori e attenuare le luci lampeggianti.

Tutto ciò è una buona notizia per la comunità dei disabili perché segnala che la portata degli impegni continui di Apple in materia di accessibilità si estende oltre le diverse disabilità che devono essere affrontate per includere un apprezzamento per i diversi sistemi e dispositivi che le persone di tutte le abilità utilizzano per navigare in un ambiente. ambiente sempre più complesso. Il mondo tecnologico.

READ  Alfa Romeo sfoggia una nuova supercar prima della sua presentazione il 30 agosto
Ultime notizie
Notizie correlate