L’intelligenza artificiale (o presunta tale)

0
101

Qualche tempo fa un articolo di Federico Rampini ha alzato il velo sulle capacità di un nuovo software, ChatGPT, in grado di redigere uno scritto in base alle parole e agli argomenti chiave che gli vengono indicati: esso è in grado di svolgere in pochi secondi una ricerca on line e redigere un documento completo al riguardo. Ovviamente un tema importante è quello relativo all’affidabilità delle fonti a cui il programma attinge, che potrebbero anche comprendere delle fake news, ma a quanto pare il software potrebbe riuscire anche a distinguere anche quelle.

In USA questo software è molto in voga tra gli studenti e siccome proibirne l’utilizzo sarebbe una battaglia persa, Rampini raccontava che un suo amico che insegna alla Columbia University ha stimolato i suoi studenti ad usare questo strumento e poi a leggerne criticamente il risultato, indicando quelli che loro considerano dei punti non adeguati alla richiesta fatta: un ottimo modo per richiedere comunque un’analisi basata su studio e ricerca personale vs il risultato di una ricerca derivante da un algoritmo.

I dilemmi etici sull’AI si sono già appalesati in altri ambiti, ad es. in quello della guida autonoma. Un bambino attraversa la strada senza guardare, ma sulla corsia opposta, dove la vettura dovrebbe scartare per evitare il pargolo, arriva un camion: cosa deve decidere l’AI? Salvare una giovane vita al potenziale costo della nostra, oppure proteggere l’incolumità dei passeggeri del veicolo della vettura che in quel momento è governata dal software?

Si potrebbero aggiungere altri esempi al riguardo, ma la domanda finale è: quanta parte della nostra vita possiamo demandare all’AI in termini decisionali e quanto possiamo da lei farci governare?

La mia opinione è che l’AI vada diffusamente implementata in qualunque ambito in cui possa dare valore aggiunto, ma in quegli ambiti in cui ci sia bisogno di inserire delle considerazioni etiche, le decisioni dell’AI devono avere un carattere consultivo, ma NON decisionale.

Nel caso ad es. del ChatGPT, una persona può demandare pure tutta la ricerca di nozioni ed elementi utili alla redazione di un documento, ma deve comunque essere in grado di discernerne l’affidabilità del contenuto: cari studenti, lo studio non va evitato con delle scorciatoie, ma deve essere la base per l’utilizzo di questi utili strumenti. In questo caso particolare, ci sono varie aziende che stanno sviluppando dei software simili, alcune delle quali hanno sede in una nazione dell’estremo oriente, dove il giusto algoritmo potrebbe redigere degli articoli utili alla propaganda del governo in carica: se considerate che in questa nazione da quasi un secolo c’è solo un partito, forse sarà meglio informarsi di persona su tutti gli argomenti “sensibili”, non solo affidandosi alle ricerche via software.

Anche nel caso della guida autonoma, gli algoritmi dovranno avere un blessing umano, così da rendere consapevoli (e responsabili) coloro che ci venderanno il servizio in questione.

In termini più generali, l’elemento umano non dovrebbe mai essere completamente assente: non si può pretendere di eliminare qualunque responsabilità, demandando ad un computer guidato da algoritmi, magari auto-generati, le decisioni e le scelte della nostra esistenza.

Elemento fondamentale sarà la regolamentazione legislativa al riguardo, condizionata in questo caso dalla sensibilità ai diritti dell’essere umano: tale argomento ha diversi pesi nelle varie culture (vedi la nazione mono-partito di cui sopra), perciò non solo queste legislazioni dovranno proattivamente indicare linee guida di implementazione dell’AI, ma dovranno anche prevedere delle forme di difesa dall’utilizzo troppo invasivo e asetticamente distaccato dell’AI stessa, magari dovuto ad applicazioni originate in quelle nazioni “diversamente sensibili” ai diritti umani dei singoli rispetto ad un presunto superiore bene comune (molto probabilmente deciso dal partito).

Io credo che le persone e i rapporti interpersonali, pur se stanno assumendo forme sempre diverse e meno fisiche, non verranno mai completamente soppiantati da software e devices che emulino il nostro comportamento e i nostri sentimenti, il tutto per un motivo ben preciso: le macchine e le loro teste artificiali non avranno mai un’anima come quella di noi esseri umani…

Gerardo Altieri

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui