Immagina di essere in un’auto che si guida da sola. Sei seduto sul sedile posteriore e stai giocando con il tuo telefono, quando all’improvviso l’auto prende la rapida decisione di sterzare ed evitare di colpire un cane che corre in strada. Ma così facendo va a sbattere contro un’altra macchina. Ecco la grande domanda: chi è responsabile di quell’incidente? Sei tu, l’azienda che ha realizzato l’auto, o forse il software che controlla l’auto?
Questo è ciò che le persone stanno cercando di capire man mano che le auto a guida autonoma, chiamate anche auto autonome, diventano più comuni. Ci sono tantissime domande etiche e legali su chi è responsabile quando queste auto subiscono incidenti, e non è sempre una risposta facile.
In che modo le auto autonome prendono decisioni?
Per comprendere il problema, dobbiamo prima vedere come auto autonome lavoro. Queste auto utilizzano l’intelligenza artificiale (AI) per guidare. Pensa all’intelligenza artificiale come a un cervello super intelligente che elabora tutti i tipi di informazioni, come la velocità con cui sta andando l’auto, dove si trovano le altre auto e cosa stanno facendo i semafori. L’auto utilizza sensori, telecamere e qualcosa chiamato LIDAR (che è come un radar ma con laser) per “vedere” l’ambiente circostante.
Ma ecco la parte difficile: a volte l’auto deve prendere decisioni difficili. Diciamo che un’auto sta guidando verso un passaggio pedonale e all’improvviso due persone saltano in mezzo alla strada. L’auto deve decidere chi o cosa proteggere: le persone sulle strisce pedonali o il passeggero all’interno dell’auto. Questa è una grande questione etica e le persone stanno ancora cercando di capire come insegnare all’intelligenza artificiale dell’auto a prendere tali decisioni.
È un po’ come il “problema del carrello”, che è un famoso enigma etico. Nel problema, un carrello sta correndo verso cinque persone e tu hai il potere di cambiare binario per salvarle, ma feriresti una persona sull’altro binario. Non esiste una risposta giusta, ed è esattamente ciò che rende le cose così complicate per le auto autonome.
Di chi è la colpa in un incidente?
Ora parliamo di responsabilità. In un normale incidente automobilistico, è abbastanza chiaro chi è la colpa, di solito è uno dei conducenti. Ma in un’auto autonoma, potrebbe non esserci alcun conducente, o la persona a bordo potrebbe anche non prestare attenzione quando avviene l’incidente. Allora chi è il responsabile?
Ci sono alcune opzioni:
- Il produttore: Se l’incidente è avvenuto perché qualcosa nell’auto non funzionava correttamente, ad esempio se i freni non funzionavano, allora la società che ha costruito l’auto potrebbe essere ritenuta responsabile.
- Lo sviluppatore di software: Se il problema riguardasse il processo decisionale dell’intelligenza artificiale, la colpa potrebbe essere dell’azienda che ha progettato il software. Ciò potrebbe accadere se l’auto facesse la scelta sbagliata in una situazione di emergenza.
- Il passeggero umano: Alcune auto a guida autonoma richiedono ancora che le persone siano pronte a prendere il controllo se qualcosa va storto. Se si verifica un incidente e l’umano non presta attenzione, potrebbe essere ritenuto responsabile.
- Società terze: A volte, una società diversa potrebbe essere responsabile della manutenzione delle auto (come un servizio di ride-sharing che utilizza auto autonome). Se qualcosa non fosse stato riparato correttamente, potrebbero essere loro i responsabili dell’incidente.
Un esempio reale di ciò è accaduto in 2018 quando un’auto a guida autonoma Uber ha investito e ucciso un pedone. In quel caso, si è scoperto che l’autista della sicurezza non stava prestando attenzione, ma neanche l’intelligenza artificiale dell’auto ha agito abbastanza rapidamente. C’è ancora un grande dibattito su chi fosse veramente la colpa.
Aiuto legale
Quando sei coinvolto in un incidente, che si tratti di un’auto normale o autonoma, può essere dura. Potresti non sapere di chi è la colpa o come comportarti con il sistema legale. Questo è dove assumere a avvocato specializzato in incidenti stradali può aiutare.
Un avvocato esperto può capire se l’incidente è dovuto a un malfunzionamento dell’auto, a un errore del software o anche alla negligenza di un altro conducente. Sapranno come raccogliere prove e trattare con le compagnie di assicurazione, il che è importante per determinare chi dovrebbe pagare i danni. Inoltre, se il caso va in tribunale, saranno in grado di rappresentarti e assicurarsi che tu ottenga un risultato giusto.
Possono anche guidarti su cosa fare immediatamente dopo l’incidente. Come presentare una denuncia alla polizia, come documentare la scena o quando richiedere valutazioni mediche. Ciò ti garantisce di non perdere nessun passaggio importante che potrebbe influire sul tuo caso in futuro.
Le decisioni difficili dell’intelligenza artificiale
Torniamo all’idea dell’auto che prende decisioni. Immagina questo: un’auto a guida autonoma sta per colpire un cervo che salta improvvisamente sulla strada. L’IA ha una frazione di secondo per decidere: sterzare per evitare il cervo ed eventualmente scontrarsi con un’altra macchina, oppure restare sulla rotta e colpire l’animale?
Non è sempre chiaro come l’intelligenza artificiale dovrebbe essere programmata per gestire queste situazioni. In un paese, la gente potrebbe pensare che l’auto debba sempre proteggere la vita umana sopra ogni altra cosa. In un altro luogo, le persone potrebbero sostenere che l’auto dovrebbe ridurre al minimo i danni al maggior numero possibile di persone, anche se ciò mette a rischio i passeggeri. E queste decisioni possono cambiare in base alle diverse culture o anche alle preferenze individuali.
In questo momento, le aziende che costruiscono queste auto stanno cercando di creare linee guida etiche per aiutare l’intelligenza artificiale a prendere questo tipo di decisioni. Ma è estremamente complicato, perché nessuno è veramente d’accordo sulla risposta “giusta” a questi problemi.
Possiamo fidarci delle auto autonome?
Gran parte del dibattito sulle auto a guida autonoma è la fiducia. Le persone vogliono sapere se possono fare affidamento su queste auto per prendere le giuste decisioni in caso di emergenza. E la fiducia è difficile da guadagnare, soprattutto quando si verificano ancora incidenti.
Un modo in cui le aziende possono creare fiducia è essere trasparenti. Ciò significa che devono essere aperti su come funzionano le loro auto e su quali tipi di decisioni l’intelligenza artificiale è programmata per prendere. Quando le persone capiscono cosa succede sotto il cofano, è più probabile che si sentano al sicuro.
Ma è anche spaventoso pensare di lasciare che una macchina prenda decisioni di vita o di morte per noi. Anche se le auto autonome sono generalmente più sicure dei guidatori umani (poiché gli esseri umani sono distratti o commettono errori più spesso), è ancora difficile rinunciare completamente al controllo.
Aziende come Tesla e Waymo affermano che la loro tecnologia è più sicura dei conducenti umani, ma c’è ancora molto scetticismo. Un sondaggio del 2022 ha mostrato solo questo 9% degli americani dichiara di fidarsi delle auto a guida autonoma, mentre il 68% dichiara di averne paura.
Come stanno gestendo la situazione i governi e le aziende?
I governi di tutto il mondo stanno cercando di elaborare regole per aiutare a guidare le auto autonome. Negli Stati Uniti, il Dipartimento dei trasporti ha pubblicato linee guida per i veicoli a guida autonoma, ma le leggi stanno ancora adeguandosi alla tecnologia.
Alcuni suggeriscono che le case automobilistiche dovrebbero versare un fondo assicurativo che copra gli incidenti causati dai veicoli autonomi. Altri pensano che siano necessarie normative più severe su come le aziende testano i propri sistemi di intelligenza artificiale prima di metterli in circolazione.
Dal lato dell’azienda, la responsabilità ricade sia sulle case automobilistiche che sugli sviluppatori di software. Devono lavorare insieme per assicurarsi che l’intelligenza artificiale sia sicura e che le auto possano gestire tutti i tipi di situazioni del mondo reale.
In sintesi
In fin dei conti, la questione di chi sia responsabile in caso di incidente di un’auto autonoma è ancora un grosso enigma. È chiaro che non esiste una risposta valida per tutti e il modo in cui gestiremo queste situazioni dipenderà dal tipo di sistemi giuridici ed etici che istituiremo.
Poiché le auto autonome continuano a crescere in numero, dovremo capire come bilanciare sicurezza, fiducia e responsabilità. Che si tratti della casa automobilistica, dello sviluppatore di software o anche del passeggero umano, tutti i soggetti coinvolti hanno un ruolo da svolgere nel garantire che questi veicoli siano sicuri per tutti sulla strada.
È un compito arduo, ma se lo facciamo bene, le auto a guida autonoma potrebbero rappresentare un enorme passo avanti nel rendere le nostre strade più sicure.
Credito immagine in primo piano: Shubham Dhage/Unsplash