Ogni giorno che passa, la realtà che ci circonda diventa sempre più “smart”, con le tecnologie avanzate e digitali a farla da padrone e algoritmi (software) sempre più orientati all’intelligenza artificiale. L’emulazione dell’intelligenza umana, in termini di apprendimento (dai dati e dall’esperienza) e di capacità di agire, anche in scenari molto complessi, è l’obiettivo finale dei programmatori, e dei finanziatori, delle Intelligenze Artificiali. E i più ambiziosi e visionari tra questi puntano già oltre. Vogliono implementare, nelle macchine, anche la sfera “emozionale”, sicuramente la più complessa da replicare all’interno di schemi binari o di diagrammi di flusso pre-strutturati, per quanto aperti e auto gestiti dall’I.A. stessa.
La sfera emozionale, per alcuni “intelligenza emotiva”, non risiede completamente nel nostro “cervello principale” e viene attivata da stimoli che passano da canali di “input” numerosi e difficilmente replicabili, tutti insieme, in una macchina. Prendiamo gli stimoli “sensoriali” (dai 5 sensi tradizionali), le interferenze del cervello primordiale, l’azione dell’amigdala, gli effetti chimico-fisici delle emozioni generati nel corpo dal sistema endocrino (ormoni), il cosiddetto “sapere filetico” (o filogenetico) ossia l’insieme di informazioni “evolutive” trasmesse da un essere all’altro nel processo evolutivo. Tutto questo rende più difficoltoso il processo di avvicinamento dell’intelligenza artificiale alla piena e completa intelligenza umana e più fantascientifiche le prospettive di avere macchine “senzienti” capaci di emulare, effettivamente, il comportamento umano. Qualcuno dirà che non è questo, in fondo, l’obiettivo, cioè emulare il comportamento umano esattamente così com’è, pieno di limiti, difetti e errori, umani appunto. Ha senso, quindi, inseguire un ideale di intelligenza, capace sì di emozioni, ma svincolata da esse? Un mondo “gestito” (o dominato) da macchine intelligenti ma non impressionabili e non lusingabili (e quindi non corruttibili) o comunque non fallibili per errori di valutazione indotti da distorsioni emozionali dei dati e della realtà, potrebbe effettivamente esistere ed essere qualificabile come “bene” o “male”?
La filmografia fantascientifica, soprattutto quella catastrofista, distopica e entropica, ci ha mostrato spesso scenari nei quali il “potere alle macchine” è stato sinonimo di “rischio estinzione” per l’uomo, nonostante tutti i tentativi dei programmatori di mettere limiti al “libero arbitrio” delle Intelligenze Artificiali. Cosa potrebbe essere, o sarà, in un siffatto mondo, è veramente difficile dirlo senza fare ipotesi di partenza che rischierebbero di contenere già la tesi finale. Di certo, quello che abbiamo osservato, finora, è che è sempre stata “la mano dell’uomo” a far sì che qualsiasi tecnologia potesse essere utilizzata a favore quanto “contro” altri esseri umani (per lo più, prima contro che a favore). Perché in fondo anche la cattiveria, la sopraffazione, il piacere di dominare ed asservire, il delirio di onnipotenza o il semplice senso di superiorità non hanno niente di “intelligente” e di logico, razionale. Sono “cose da uomini”, non da macchine. Per questo, ci sarà sempre “un cattivo” della storia, in carne ed ossa, che sarà responsabile delle nefandezze che le macchine, eventualmente, faranno ad altri esseri umani.
Cassandro Ripitt