venerdì 20 giugno 2014

L'inquietante Caso di Eugene Goostman.

Avvertenza:
Questo è un post puramente speculativo. Si ipotizzano scenari futuri sulla base di notizie ancora non confermate e che, anche in caso affermativo, molto probabilmente non cambieranno la nostra vita per i prossimi cinquanta ma facciamo anche cento, anni.
Forse non la cambieranno mai.
Ma come tutti i bravi nerd sanno, immaginare ipotetici futuri è sempre divertente. Quello che segue è, a mio parere, un argomento inquietante e a suo modo affascinante.

Nei giorni scorsi sono uscite alcune notizie interessanti.
La prima in ordine cronologico è questa:

I militari statunitensi hanno iniziato a studiare il modo d'inserire morale ed etica nelle macchine.
E allora? Direte voi.
Sembra una bazzecola ma come ogni appassionato di fantascienza sa bene, questi studi manderanno al macero le famose tre + 1 leggi della robotica formulate all'inizio degli anni quaranta da Isaac Asimov e che, fino ad ora, sono state considerate come un assioma inconfutabile.

Le leggi della robotica enunciate dal famoso autore, erano molto semplici e impedivano che un robot potesse nuocere a un essere umano:
Legge 0. Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.
Legge 1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero.
Legge 2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge.
Legge 3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.
In pratica, un'intelligenza artificiale seguendo queste regole non potrebbe nuocere all'uomo perché si bloccherebbe e andrebbe in corto circuito, o in loop per utilizzare un termine caro agli informatici.
Oltrepassare i limiti imposti da queste regole, che è quello che stanno cercando di fare i militari statunitensi, significa poter permettere ai robot di recar danno all'uomo, nel caso l'intelligenza artificiale lo reputi giusto, in conformità a un'etica e a una morale sviluppata ad hoc.
Sembra facile.
In primis cercare di capire che cosa sia giusto e cosa sia sbagliato, non è immediato. Molte volte si tratta di giudizi soggettivi perché non sempre ciò che è giusto per una persona può esserlo per un'altra. Quindi bisognerà stilare un codice comportamentale eticamente e moralmente equo. E poiché che lo sviluppo di questa intelligenza artificiale è in mano ai militari, riesce difficile immaginare che le macchine senzienti del futuro saranno utilizzate come idraulici o imbianchini.
Superato il difficile scoglio deontologico e fissati gli opportuni paletti, le macchine potranno decidere e agire in modo completamente autonomo.

La seconda notizia è questa:

La mente geniale di Alan Turing, il papà dell'informatica, ideò un semplice test per distinguere un'intelligenza umana da quella artificiale.
La macchina deve rispondere ad alcune domande specifiche che sono rivolte contemporaneamente anche a un essere umano. I membri di un'apposita commissione devono cercare di capire chi tra i due è l'interlocutore in carne e ossa. Se il computer riesce a ingannare i commissari oltrepassando il 30 per cento delle risposte, il test si considera superato.
Qualche giorno fa, una di queste commissioni ha posto delle domande a Eugene Goostman, un ragazzino di tredici anni che vive a San Pietroburgo. O almeno così hanno creduto i giudici, perché a rispondere non era un essere umano ma un software AI (un Cleverbot a voler essere pignoli). 
Bisogna dire che il test di Turing è abbastanza controverso ed è stato riformulato più volte per correggere criteri inadeguati oppure obsoleti. Inoltre esso si basa su di un principio che è alquanto inquietante: l'inganno.
Sì perché l'intelligenza artificiale, per superare il test, deve riuscire a ingannare l'esaminatore facendogli credere che stia parlando con un essere umano. Deve riuscire a far credere quello che non è. Un test che non nobilita la macchina ma neppure l'uomo, incapace a rendersi conto che dall'altra parte c'è un computer.

Bene, se uniamo i puntini che separano le due notizie, si dipinge un quadro inquietante e affascinante.
Un robot che non risponde alle leggi della robotica perché dotato di una sua morale, programmata a essere giusta (considerato che il concetto di giustizia è sempre stato molto aleatorio) sarà capace di fingere che la sua morale sia corretta ma poi potrà agire secondo una logica completamente diversa e molto probabilmente autonoma.
Ed è qui che si aprono scenari inquietanti.
Robot assassini sapientemente programmati per apparire normali o Virus e Malware capaci di cambiarne l'etica.
Se mettiamo nel piatto anche gli studi sui wormholes nello spaziotempo che iniziano a dare, almeno in campo teorico, i primi frutti, allora ecco apparire in un orizzonte forse non così lontano come potrebbe sembrare l'apocalittico finale che ogni appassionato di Fantascienza conosce molto bene.
Questo:

Eugene Goostman ha aperto una porta che non avrebbe mai dovuto essere aperta?

P.S.
Senza andare troppo avanti nel tempo. Un'applicazione per l'intelligenza artificiale senziente si potrebbe già trovare ai giorni nostri.
Avete mai sentito parlare di DRONI?

Nessun commento:

Posta un commento