Mentre alcuni esperti vedono poco valore nell’essere gentili con entità non coscienti, altri sostengono che il modo in cui interagiamo con l’intelligenza artificiale potrebbe influenzare la qualità delle risposte (El Pais)

Avere buone maniere ed essere educati richiede un umore positivo e bilanciato. Ci sono volte in cui l’ottimismo è così travolgente che non solo salutiamo la vicina e l’uomo che vende giornali sotto casa, ma, prima di spegnere il computer, ringraziamo ChatGPT per averci aiutato nel lavoro e, perché no, gli auguriamo di trascorrere una grande giornata. L’idea che sia necessario mostrare cortesia verso una macchina è tanto insolita quanto il fatto che tutte siano programmate per comportarsi gentilmente con gli utenti. Certo, per loro è più facile, perché non hanno mai una brutta giornata. Ma, serve a qualcosa essere gentili con un’IA? E non esserlo?

Nel 1996, i ricercatori Byron Reeves e Clifford Nass svilupparono il concetto di “educazione dei media”. Questo termine suggerisce che le persone, spesso senza rendersene conto, interagiscono con sistemi tecnologici – come computer e televisori – come se fossero esseri umani. Insieme, condussero vari esperimenti con risultati diversi. In uno di questi, ad esempio, i partecipanti lavoravano su un computer e poi venivano invitati a valutarne le prestazioni. Curiosamente, quando la valutazione della macchina veniva effettuata sul computer con cui avevano lavorato, i voti tendevano ad essere più positivi, come se evitassero di parlare male del computer alla sua “presenza”. In un altro esperimento, un computer elogiava un gruppo di persone per aver svolto bene un compito. Questi partecipanti valutavano meglio la macchina che li aveva elogiati, anche sapendo che questi elogi erano generati automaticamente. Da allora, numerosi studi hanno dimostrato che, da un lato, gli esseri umani tendono ad antropomorfizzare le macchine e, dall’altro, quando un sistema tecnologico imita qualità umane, come la cortesia, gli utenti percepiscono un miglioramento delle prestazioni da parte sua.

Questa inclinazione, tuttavia, non risolve il dibattito sull’opportunità di essere gentili con la tecnologia. Inizialmente, la discussione si concentrava sulle interazioni con assistenti vocali come Siri e Alexa, – con la domanda su perché abbiano sempre voce e nome di donna – e di recente si è estesa a modelli di linguaggio avanzati come ChatGPT, Gemini e Claude. Il dibattito si biforca in due ambiti fondamentali: l’etico e il pratico. Da un lato, si analizza se sia appropriato o meno essere cortesi con un sistema tecnologico e se abbia senso considerare entità come ChatGPT come soggetti morali. Dall’altro, si esamina se la cortesia nell’interazione influisca sulla sua efficienza operativa.

Resta il fatto che, comunicando in modo educato, i messaggi dell’utente tendono ad assomigliare di più agli esempi di interazioni cortesi che l’assistente ha analizzato durante il suo addestramento. Poiché questi esempi sono solitamente associati a risposte di migliore qualità, la cortesia può, in modo indiretto, migliorare la qualità delle risposte ottenute: è cruciale tenere conto che sono sistemi molto sensibili alla formulazione della query, fino a livelli surreali. Cambiamenti apparentemente minori nella struttura di un ordine, come la punteggiatura o l’inclusione di certe frasi motivazionali, possono avere un impatto drammatico sull’efficacia della risposta. Separare con due punti o con uno spazio o utilizzare più o meno parentesi nel formato può fare saltare la precisione della risposta dall’8% all’80%”.