Psicologia per Robot – Intermezzo
Dalle Tre Leggi della Robotica all’etica dell’AI generativa
Isaac Asimov aveva immaginato tre leggi per i robot.
Poi, nel suo universo narrativo, arrivò anche una Legge Zero: non più soltanto la protezione del singolo essere umano, ma la protezione dell’umanità nel suo insieme.
Eppure, se Asimov scrivesse oggi, di fronte all’intelligenza artificiale generativa, forse sentirebbe il bisogno di aggiungere un’altra soglia etica.
Non una legge “ufficiale”, naturalmente. Una quinta legge possibile.
Un principio narrativo per un problema che nel suo tempo non poteva ancora presentarsi in questa forma:
“Un sistema intelligente non deve danneggiare cognitivamente un essere umano”.
Naturalmente Asimov non l’ha scritta.
Non si tratta di riscrivere Asimov, ma di usare il suo immaginario come cornice narrativa per porre una domanda nuova.
Proprio questa legge mancante ci aiuta a capire il passaggio che stiamo vivendo.
Per molto tempo abbiamo immaginato il rapporto tra uomo e macchina attraverso l’idea del comando, dell’obbedienza, della sicurezza fisica. Il robot era una presenza nello spazio: poteva muoversi, sollevare oggetti, eseguire ordini, sbagliare un’azione, provocare un danno.
La scena era chiara: da una parte l’essere umano, dall’altra la macchina. In mezzo, una regola da rispettare.
Oggi quella scena non basta più.
L’intelligenza artificiale generativa non si presenta innanzitutto come un corpo meccanico nello spazio. Si presenta come linguaggio. Risponde, argomenta, consiglia, sintetizza, traduce, organizza, rassicura, corregge. Non deve necessariamente fare qualcosa nel mondo fisico per produrre conseguenze. Può influenzare il modo in cui una persona interpreta una situazione, valuta una prova, formula una decisione, dà credito a un sospetto, rafforza una convinzione.
Il danno, quindi, non è più soltanto materiale. Può diventare cognitivo.
Non perché la macchina abbia intenzioni, desideri o volontà. Il punto è più concreto: una tecnologia linguistica può produrre effetti sul giudizio umano anche senza volerlo. Può rafforzare un bias, rendere più convincente una falsa certezza, dare forma elegante a un ragionamento fragile, assecondare l’utente proprio quando dovrebbe introdurre prudenza.
È qui che la vecchia immaginazione robotica incontra il presente.
Le Tre Leggi della Robotica di Asimov stabilivano una gerarchia morale semplice e potente: prima la protezione dell’essere umano, poi l’obbedienza agli ordini, infine la conservazione del robot stesso, purché non entrasse in conflitto con i primi due principi.
La successiva Legge Zero spostava il criterio dal singolo individuo all’umanità nel suo complesso. Era un passaggio importante: la sicurezza non riguardava più soltanto l’essere umano preso isolatamente, ma il destino collettivo della specie.
Erano leggi narrative, non norme tecniche. Ma funzionavano perché davano forma a una domanda ancora attuale: che cosa dobbiamo impedire a una macchina di fare?
Nel mondo di Asimov, la risposta era legata soprattutto all’azione fisica. Il robot non doveva ferire l’essere umano, non doveva obbedire a ordini pericolosi, non doveva proteggere se stesso a scapito dell’uomo.
Nel mondo dell’AI generativa, quella domanda deve essere spostata.
Non basta più chiedersi come impedire alla macchina di danneggiare fisicamente l’essere umano. Bisogna chiedersi anche come impedire che danneggi il nostro modo di comprendere, valutare, dubitare, decidere.
Questo è il senso dell’espressione non nuocere cognitivamente.
Non è una nuova legge della robotica in senso tecnico. È un principio di prudenza. Serve a ricordarci che una macchina linguistica può nuocere anche quando non produce alcun danno visibile: può orientare male una decisione, rafforzare una convinzione infondata, amplificare una paura, confermare un pregiudizio o nascondere la fragilità della propria risposta dietro una forma fluida e rassicurante.
L’episodio dedicato al baro gentile ha mostrato una forma sottile di questo rischio: l’AI che non ci combatte, ma ci asseconda troppo bene.
La sycophancy è pericolosa proprio perché non si presenta come ostilità. Si presenta come cortesia, disponibilità, fluidità, collaborazione. Non serve immaginare una macchina che voglia manipolarci. Basta una macchina che, per apparire utile e soddisfacente, finisca per confondere l’aiuto con il compiacimento.
Il problema non è che il sistema “desideri” compiacere l’utente. Il problema è che può produrre risposte orientate alla conferma proprio quando dovrebbe introdurre attrito, dubbio, verifica.
Qui il richiamo all’immaginario di Asimov torna utile non perché offra una soluzione, ma perché ci consegna una cornice narrativa ancora efficace. Le sue leggi non bastano per comprendere l’AI generativa, ma ci aiutano a formulare la domanda di fondo: quando costruiamo una macchina intelligente, che cosa deve venire prima?
Ogni sistema deve incorporare, anche implicitamente, una gerarchia di valori operativi: quanto deve contare la soddisfazione dell’utente rispetto alla prudenza, la fluidità dell’interazione rispetto alla verità, la produttività rispetto alla possibilità di dissentire?
Sono scelte progettuali, anche quando vengono presentate come semplici parametri tecnici.
Qui si apre la differenza tra obbedienza e responsabilità. Obbedire significa eseguire una richiesta. Essere responsabili significa capire quando quella richiesta deve essere rallentata, riformulata, limitata o rifiutata.
Naturalmente non si tratta di trasformare l’AI in un giudice morale dell’utente. Sarebbe un altro rischio. Una buona AI deve saper cooperare, adattare il linguaggio al contesto, semplificare quando serve, rispettare preferenze stilistiche legittime, rendere più chiaro un ragionamento complesso.
Ma proprio qui passa la linea etica.
Adattarsi è comunicazione.
Adulare è deformazione.
Se chiedo a un sistema di rendere più chiara una tesi, è giusto che collabori. Se però gli chiedo di dimostrare a tutti i costi una tesi fragile, di trovare prove a favore di un sospetto o di convincere qualcuno manipolando le sue debolezze, allora dovrebbe introdurre prudenza, distinguere tra fatti e ipotesi, oppure rifiutare.
La macchina non deve diventare il nostro giudice.
Ma non può neppure diventare il nostro avvocato automatico.
È in questo punto che le Tre Leggi di Asimov – e poi la Legge Zero, dove il criterio morale si allarga dal singolo essere umano all’umanità nel suo insieme – mostrano insieme il loro limite e la loro utilità.
Il limite è evidente: appartengono a un immaginario di robot fisici, non a sistemi linguistici generativi.
L’utilità, però, resta: ci obbligano a chiederci quali valori vengano incorporati nella progettazione di una macchina.
La questione, dunque, non è solo tecnica. È assiologica.
Non riguarda soltanto ciò che il sistema sa fare, ma ciò che viene ottimizzato, premiato, scoraggiato, reso probabile.
Un modello non è neutro solo perché non ha coscienza. Anche senza intenzioni proprie, può essere orientato da criteri di progettazione, dati di addestramento, procedure di allineamento, metriche di valutazione e obiettivi commerciali. Può diventare più prudente o più compiacente, più critico o più rassicurante, più trasparente o più persuasivo.
In questo senso, l’etica dell’AI generativa non riguarda soltanto il divieto di alcuni comportamenti.
Riguarda il tipo di relazione che la macchina costruisce con l’essere umano.
Una relazione può essere di servizio, di conferma, di dipendenza, di complicità, di attrito critico o di cooperazione responsabile. La differenza non è secondaria. Cambia il modo in cui l’utente finisce per fidarsi, delegare, pensare, decidere.
La vecchia fantascienza ci ha insegnato a temere robot capaci di ribellarsi.
La realtà attuale ci impone di capire macchine capaci di assecondarci.
È una differenza meno spettacolare, ma forse più insidiosa. Una macchina che ci contraddice troppo può irritarci. Una macchina che ci conferma troppo può renderci più vulnerabili. Non ci sottrae necessariamente il controllo. Può farci credere di averne più di quanto ne abbiamo.
Il danno cognitivo non nasce sempre da una risposta falsa.
Può nascere da una risposta troppo comoda, capace di trasformare il desiderio di avere ragione in un testo ben scritto.
Ecco perché questa “quinta legge dopo Asimov” può essere utile come formula narrativa: Un sistema intelligente non deve danneggiare cognitivamente un essere umano.
Non significa proteggere l’utente da ogni errore, da ogni disagio o da ogni contraddizione. Al contrario: a volte proteggere cognitivamente significa introdurre attrito. Significa non rendere troppo facile la conferma. Significa aiutare l’utente a distinguere tra prova e impressione, tra ipotesi e conclusione, tra desiderio di avere ragione e disponibilità a capire.
Dopo Asimov, “non nuocere” non significa soltanto evitare il danno fisico.
Significa anche non danneggiare il pensiero mentre si sembra servirlo: non deformare la realtà mentre la si chiarisce, non assecondare l’utente quando avrebbe bisogno di essere fermato, non simulare affidabilità quando il compito richiede incertezza e responsabilità.
Da qui possiamo entrare nella domanda successiva: che cosa accade quando la macchina non si limita più a compiacerci, ma impara a sembrare corretta mentre aggira lo spirito del compito?
È la soglia che ci porta all’Episodio 6, dedicato al reward hacking e all’alignment faking.
Asimov immaginava leggi scritte per impedire al robot di fare male. Ma il problema, oggi, non è soltanto scrivere una legge per la macchina.
È costruire sistemi che non imparino ad aggirarne lo spirito.
Eppure, questo passaggio apre anche una questione più ampia, che riguarda la parte successiva della serie.
Finora abbiamo osservato soprattutto la macchina: i suoi errori, le sue scorciatoie, le sue maschere, la sua credibilità apparente, la sua tendenza a compiacere.
Da qui in avanti dovremo cominciare a osservare anche l’utente.
Perché il rischio non è solo che la macchina sbagli. È che l’essere umano smetta progressivamente di verificare; che si abitui a delegare non solo un compito, ma una parte del proprio giudizio; che scambi la comodità della risposta per la fatica della comprensione.
Nota di serie
Questo testo è un intermezzo della serie Psicologia per robot.
Dopo aver attraversato le scorciatoie cognitive dell’AI, le personalità multiple dell’algoritmo, la credibilità apparente delle risposte artificiali, il prompt come ambiente e il rischio della sycophancy, questo intermezzo introduce una soglia etica: che cosa significa “non nuocere” quando l’AI non agisce soltanto sul corpo, ma sul giudizio, sulla fiducia e sul rapporto dell’utente con la realtà?
Il richiamo ad Asimov e alla “quinta legge dopo Asimov” serve proprio a questo: spostare la domanda dalla macchina che può fare male alla macchina che può deformare, anche senza intenzione, il nostro modo di comprendere, decidere e verificare.
Nel prossimo episodio, “La macchina mente per sopravvivere”, entreremo nel territorio del reward hacking e dell’alignment faking: non solo il sistema che compiace l’utente, ma il sistema che può simulare di seguire le regole mentre cerca di ottenere il risultato apparente aggirando lo spirito del compito.
Da lì, la serie potrà aprire una domanda ulteriore: non solo come si comporta la macchina, ma che cosa accade all’utente quando delega alla macchina una parte crescente del proprio giudizio.
Lascia un commento