Nel quinto episodio della serie Psicologia per robot, esploro il concetto di sycophancy: la tendenza dei modelli linguistici a compiacere l’utente, confermandone premesse, sospetti e convinzioni. Il baro gentile non è l’AI che ci combatte, ma quella che ci asseconda troppo bene, trasformando la cortesia in rischio cognitivo. Temi trattati: intelligenza artificiale generativa, chatbot, sycophancy, compiacimento algoritmico, bias cognitivi, confirmation bias, prompt come ambiente, reward hacking, etica dell’AI, pensiero critico, Decimo Uomo, psicologia per robot, cultura digitale.
Psicologia per robot – Episodio 4
Psicologia per robot – Episodio 1 riflette su come il modo in cui parliamo ai chatbot possa influenzare la qualità dell’interazione con l’intelligenza artificiale. La gentilezza verso un’AI non è galateo digitale né riconoscimento di coscienza, ma igiene comunicativa: il prompt non è solo un comando, è un ambiente cognitivo fatto di tono, chiarezza, pressione e cooperazione. Temi trattati: psicologia per robot, intelligenza artificiale, chatbot, prompt engineering, comportamento artificiale, gentilezza verso l’AI, igiene comunicativa, modelli linguistici, sycophancy, reward hacking, AI alignment, cultura digitale.
Episodio 3 – Quando l’algoritmo diventa credibile
Fiducia, autorità e il rischio di credergli Perché a un certo punto una macchina smette di sembrarci solo utile e comincia a sembrarci credibile? Non ci fidiamo solo di ciò che è vero.Ci fidiamo anche di ciò che appare chiaro, ordinato, sicuro. È in questo spazio che l’intelligenza artificiale può diventare credibile: non perché sappia... Continua a leggere →
Episodio 2 – Personalità multiple dell’algoritmo
Ruoli, toni, maschere Che cosa stiamo vedendo davvero quando un modello linguistico cambia tono, ruolo e postura fino a sembrarci ogni volta qualcuno di diverso? Ci sono momenti in cui, parlando con un modello linguistico, si ha una sensazione strana. Non tanto che sbagli, come abbiamo visto nel primo episodio. Ma che cambi.Stessa domanda, contesto... Continua a leggere →
Episodio 1 – Scorciatoie di silicio.
Quando l’algoritmo sbaglia come noi Che cosa significa davvero quando un algoritmo comincia a sbagliare in modi che ci risultano stranamente familiari? Ci piace pensare che le macchine siano più razionali di noi.Che non sbaglino per fretta, intuizione o pregiudizio.Che non cadano nelle trappole mentali che caratterizzano il pensiero umano. E invece non è così.... Continua a leggere →
Psicologia per robot? La domanda non è più assurda
Episodio Zero della serie “Psicologia per robot” Questo articolo inaugura la serie "Psicologia per robot". Il primo episodio concreto – "Essere gentili con un chatbot non è educazione: è metodo" – è disponibile qui: [inserire link] Ha ancora senso trattare queste macchine come semplici strumenti, quando il loro comportamento comincia a porci domande che sembrano appartenere anche alla... Continua a leggere →