Digital

Intelligenza artificiale: sfide e opportunità

Definire cosa sia esattamente l’intelligenza artificiale è un compito arduo. Nonostante ciò, possiamo descriverla come l’insieme di studi e tecniche che tendono alla realizzazione di macchine, specialmente calcolatori elettronici, in grado di risolvere problemi e di riprodurre attività proprie dell’intelligenza umana. Mira a replicare processi mentali di elevata complessità mediante l’uso di computer seguendo principalmente due percorsi complementari: da un lato la ricerca di una maggiore armonizzazione tra le risorse dei computer e le potenzialità dell’intelligenza umana, dall’altro l’utilizzo di simulazioni informatiche al fine di produrre delle ipotesi sui meccanismi utilizzati dalla mente umana.

In realtà non esiste ancora una definizione globalmente accettata in quanto l’AI (dall’inglese Artificial Intelligence) è un settore estremamente recente e in fortissima evoluzione.

Il termine Artificial Intelligence fu coniato per la prima volta dal matematico statunitense John McCarthy, nel 1956, periodo durante il quale vennero lanciati i primi linguaggi di programmazione come Lisp e Prolog (linguaggi formali che forniscono un insieme di istruzioni che possono essere usate per trasformare i dati in output). Da quel momento in avanti le fortune dell’intelligenza artificiale sono state piuttosto altalenanti, tra momenti di evidente progresso nelle ricerche e negli studi a momenti di stallo. La prima grande svolta si ebbe soltanto negli anni ’90 grazie alla diffusione tra il grande pubblico, dei processori grafici, i Gpu, graphics processing unit, ovvero chip di elaborazione dati più veloci, che, fino a quel momento, potevano essere utilizzati esclusivamente nei settori militari, aerospaziali ed informatici.

Scendendo leggermente nel particolare, l’intelligenza artificiale è innanzitutto un ramo dell’informatica che permette di dotare, sia a livello di software che hardware, le macchine di caratteristiche peculiari proprie dell’essere umano. Queste caratteristiche rimandano a quattro differenti livelli di funzioni che specificano l’utilizzo pratico dell’intelligenza artificiale:

  • Comprensione: riconoscimento di testi, tabelle, video, immagini, voce ed estrapolarne informazioni;
  • Ragionamento: precisi algoritmi che riescono a collegare tra loro molteplici informazioni;
  • Apprendimento: sistemi che, con tecniche di apprendimento automatico, portano le IA ad imparare e a svolgere funzioni;
  • Interazione: modalità di funzionamento dell’IA in relazione alla sua interazione con l’uomo;

In realtà l’utilizzo, nella vita quotidiana, dell’IA è più concreto di quanto si possa pensare. Colossi come Apple, Google o Amazon hanno integrato all’interno dei loro sistemi l’utilizzo dell’intelligenza artificiale al fine di agevolare, implementare, controllare e gestire al meglio prodotti e sistemi in commercio, sia di settori specifici che di largo consumo.

Anche il settore automobilistico da tempo utilizza sistemi di guida automatica e con uso sempre più frequente della logica Fuzzy: logica questa, alla base di sistemi che permettono cambi di velocità in auto a guida semi-autonoma. Altri settori in cui l’intelligenza artificiale viene ormai utilizzata in maniera regolare sono il campo medico, la robotica e la visione artificiale.

Molta strada deve essere ancora fatta ma si può dire che l’intelligenza artificiale non è più considerata come un’ipotesi remota ma rappresenta una realtà consolidata. Se gli obiettivi prefissati dai primi scienziati sono stati in gran parte raggiunti, le possibilità di utilizzo di sistemi intelligenti per il futuro e il loro impatto sulla vita quotidiana e in campo economico pongono una seria riflessione e sollevano molti dubbi. L’entusiasmo che ha accompagnato le prime scoperte e i primi passi in avanti si è mano a mano affievolito per il timore crescente di scienziati ed economisti nella prospettiva di un futuro prossimo con macchine che potrebbero sostituire completamente l’uomo.

Sorprende che alcuni dei moniti siano venuti proprio da imprenditori di successo, come Elon Musk, che ha fatto dell’intelligenza artificiale il punto di partenza della sua fortuna e scienziati come Stephen Hawking. Essi mettono in guardia dai rischi che la nostra civiltà potrebbe affrontare, rischi che scaturirebbero proprio da quei settori in cui l’IA ha apportato così tanti vantaggi.

Dal movimento ottocentesco del “machine breaking” (termine che definisce il rifiuto dell’introduzione delle macchine in campo lavorativo e di ogni progresso tecnologico) il confronto uomo-macchina è continuato in contesti storici e sociali diversi e con modalità diverse. Se da un lato la tecnologia ha migliorato la vita dell’uomo, mettendolo al riparo da pericoli e sollevandolo dalle fatiche fisiche, dall’altro sembra ora essersi appropriata di ogni suo spazio vitale e aver tolto all’uomo la centralità nel suo mondo. È un modello culturale ed economico che è in pericolo, una morale e un’etica lavorativa che sembrano ormai diventate obsolete.Difficile prevedere il percorso futuro di questo settore, ma guardando alla rapidità con cui si è arrivati ai progressi odierni, è legittimo ipotizzare che ciò non potrà che portare ad una nuova e più complessa rivoluzione digitale, industriale e naturalmente culturale.