Macchine morali — Ingegneri e programmatori in tutto il mondo sono impegnati in una corsa all’oro per creare auto autonome che possano girare sulle strade con il traffico umano. Sensori su sensori, computer potenti, servo-meccanismi, tutta la più avanzata tecnologia—e poi quelle maledette vetture trovano qualcuno che non dovrebbe esserci su un passaggio pedonale e lo investono.
La difficoltà è che le automobili senza conducente, più di ogni altro tipo di robot, devono simulare il comportamento umano, almeno di chi guida le macchine convenzionali o comunque frequenta le strade. Il caso etico che ne nasce è noto come il “trolley problem”, il problema del tram, e si applica alla determinazione di cosa dovrebbero fare gli automi quando, in un emergenza, tocca loro decidere chi sacrificare: il pedone che sbuca, i passeggeri sul mezzo, su un altro mezzo?
E, se le condizioni obbligassero assolutamente a una scelta, è meglio mettere sotto un giovane adulto, un anziano, un bambino, due suore, tre liceali?
Gli umani risolvono il problema reagendo a casaccio, con la confusione e il panico. Le macchine robot possono scegliere a mente fredda, ma a far cosa? Bisogna trasferirgli i concetti di etica da chi li possiede, le persone. Ciò è il tema di un grande progetto di ricerca—The Moral Machine—del MIT-Massachusetts Institute of Technology sul comportamento etico alla guida. Ha coinvolto 2,3 milioni di persone intorno al mondo.
L’indagine è consistita nell’illustrare con una sorta di videogioco 13 scenari in cui è inevitabile che ci sia una vittima—situazioni rare, ma non impossibili—obbligando i partecipanti a scegliere chi “salvare” tra giovani e vecchi, guidatori o pedoni, femmine o maschi, agiati o poveri, e così via.
L’equipe del MIT ha trovato che il mondo si divide in tre macro-gruppi morali: il primo con Nord America e molti paesi europei (Italia compresa) dalla tradizione cristiana, il secondo i paesi come Giappone, Indonesia e Pakistan, con tradizioni confuciane o islamiche. Il terzo gruppo comprende paesi del Sud e Centro America, la Francia e le ex colonie francesi.
Il primo gruppo, gli “occidentali”, esprime una marcata preferenza per salvare i giovani rispetto ai vecchi, mentre gli “asiatici” non distinguono per gruppi d’età. Il Sud francofono e latino-americano invece mostra una preferenza per salvare le donne rispetto agli uomini. C’entrano altri fattori. I paesi dalla forte tradizione legalitaria, Giappone e Finlandia per esempio, hanno scelto più spesso di investire chi attraversa fuori dalle strisce rispetto ad altre nazioni meno legalistiche, come Nigeria e Pakistan.
Gli scenari che obbligavano a scegliere tra la morte di un uomo d’affari o un senzatetto hanno rispecchiato i dislivelli economici nelle culture. La Finlandia, dalle limitate distanze economiche tra le classi, non ha espresso chiare preferenze, mentre il rispondente medio della Colombia, paese caratterizzato da grandi disparità economiche, non ha esitato a scegliere di investire il povero.
Le lezioni sono due. Prima, non è vero che tutto il mondo sia “paese”. Le auto autonome dovranno, semmai, cambiare etica quando passano il confine. La seconda è che non siamo pronti per insegnare il comportamento alle auto senza conducente. Vedono le cose come stanno, non come vorremmo noi. Prima di andare d’accordo con gli umani, i robot dovranno almeno imparare a “venirci un po’ incontro”.
Courtesy James Douglas Hansen
La difficoltà è che le automobili senza conducente, più di ogni altro tipo di robot, devono simulare il comportamento umano, almeno di chi guida le macchine convenzionali o comunque frequenta le strade. Il caso etico che ne nasce è noto come il “trolley problem”, il problema del tram, e si applica alla determinazione di cosa dovrebbero fare gli automi quando, in un emergenza, tocca loro decidere chi sacrificare: il pedone che sbuca, i passeggeri sul mezzo, su un altro mezzo?
E, se le condizioni obbligassero assolutamente a una scelta, è meglio mettere sotto un giovane adulto, un anziano, un bambino, due suore, tre liceali?
Gli umani risolvono il problema reagendo a casaccio, con la confusione e il panico. Le macchine robot possono scegliere a mente fredda, ma a far cosa? Bisogna trasferirgli i concetti di etica da chi li possiede, le persone. Ciò è il tema di un grande progetto di ricerca—The Moral Machine—del MIT-Massachusetts Institute of Technology sul comportamento etico alla guida. Ha coinvolto 2,3 milioni di persone intorno al mondo.
L’indagine è consistita nell’illustrare con una sorta di videogioco 13 scenari in cui è inevitabile che ci sia una vittima—situazioni rare, ma non impossibili—obbligando i partecipanti a scegliere chi “salvare” tra giovani e vecchi, guidatori o pedoni, femmine o maschi, agiati o poveri, e così via.
L’equipe del MIT ha trovato che il mondo si divide in tre macro-gruppi morali: il primo con Nord America e molti paesi europei (Italia compresa) dalla tradizione cristiana, il secondo i paesi come Giappone, Indonesia e Pakistan, con tradizioni confuciane o islamiche. Il terzo gruppo comprende paesi del Sud e Centro America, la Francia e le ex colonie francesi.
Il primo gruppo, gli “occidentali”, esprime una marcata preferenza per salvare i giovani rispetto ai vecchi, mentre gli “asiatici” non distinguono per gruppi d’età. Il Sud francofono e latino-americano invece mostra una preferenza per salvare le donne rispetto agli uomini. C’entrano altri fattori. I paesi dalla forte tradizione legalitaria, Giappone e Finlandia per esempio, hanno scelto più spesso di investire chi attraversa fuori dalle strisce rispetto ad altre nazioni meno legalistiche, come Nigeria e Pakistan.
Gli scenari che obbligavano a scegliere tra la morte di un uomo d’affari o un senzatetto hanno rispecchiato i dislivelli economici nelle culture. La Finlandia, dalle limitate distanze economiche tra le classi, non ha espresso chiare preferenze, mentre il rispondente medio della Colombia, paese caratterizzato da grandi disparità economiche, non ha esitato a scegliere di investire il povero.
Le lezioni sono due. Prima, non è vero che tutto il mondo sia “paese”. Le auto autonome dovranno, semmai, cambiare etica quando passano il confine. La seconda è che non siamo pronti per insegnare il comportamento alle auto senza conducente. Vedono le cose come stanno, non come vorremmo noi. Prima di andare d’accordo con gli umani, i robot dovranno almeno imparare a “venirci un po’ incontro”.
Courtesy James Douglas Hansen
More Ivermectin