L’inquietante video del robot che si ribella ▷ L’esperto: “No a strane teorie, vi spiego cosa è successo”

Il video virale di un robot industriale che durante una riparazione ha iniziato a colpire un tecnico in un cantiere cinese ha riacceso l’attenzione su un tema delicato: quanto possiamo fidarci delle macchine autonome?

Robot fuori controllo? No, ma serve il “freno a mano” della responsabilità

Secondo il professor Giuseppe Corasaniti, esperto di tecnologie e diritto, non c’è alcun mistero da svelare. “È come quando un sistema di frenatura automatica nei veicoli interpreta male la distanza: si tratta di un errore di sensori, non di una macchina che si ribella”, chiarisce. Il rischio, piuttosto, è quello di leggere questi incidenti con la lente della fantascienza, quando invece serve solo maggiore rigore nella progettazione e nella supervisione.

Tecnologie autonome, non creature senzienti

Robot chirurgici, sistemi di automazione in fabbrica, assistenti domestici: le tecnologie autonome sono già parte del nostro quotidiano, anche se con sembianze meno spettacolari di quelle hollywoodiane. “I robot sono già fra noi”, afferma Corasaniti, “ma non dobbiamo demonizzarli. Forse siamo noi a proiettare troppe paure sulla tecnologia”. Il vero rischio, secondo il professore, non è che le macchine “impazziscano”, ma che non vengano predisposti adeguati meccanismi di sicurezza. Come per ogni tecnologia complessa, serve un controllo esterno, il cosiddetto “freno a mano” — concetto che Corasaniti usa in senso simbolico per ricordare che l’uomo deve sempre poter intervenire.

Il vero pericolo? L’uso militare dell’intelligenza artificiale

Se c’è un ambito in cui le preoccupazioni diventano concrete, è quello militare. “Quello che succede in Ucraina mi spaventa molto di più”, avverte Corasaniti. Qui, droni nati per usi civili, come la semina o la distribuzione di fertilizzanti, sono stati rapidamente convertiti in armi. E il passo più inquietante è l’evoluzione verso droni che operano autonomamente, selezionando obiettivi e attaccando in base a valutazioni probabilistiche. “Questi sistemi decidono un attacco non su basi certe, ma sulla plausibilità di una minaccia. E quando l’obiettivo è umano, la conseguenza è devastante”.