In che direzione sta andando lo sviluppo dell’intelligenza artificiale? E chi lo sta guidando? Arriverà – quando? – il momento in cui un essere umano sarà ucciso da un’arma autonoma, in seguito a una decisione presa non da un altro essere umano ma da un’intelligenza artificiale?
A queste domande prova a rispondere un volume collettaneo recentemente pubblicato in open access da Franco Angeli: Dai droni alle armi autonome. Lasciare l’Apocalisse alle macchine?, a cura di Francesca Farruggia e con una prefazione del premio Nobel Giorgio Parisi.
Partendo dalla preistoria, e arrivando fino alla guerra attualmente in corso in Ucraina, il volume raccoglie saggi che affrontano il tema dell’applicazione dell’intelligenza artificiale ai conflitti bellici – e le sue possibili conseguenze – da diverse prospettive: dallo stato dell’arte del machine learning, alle diverse scale temporali su cui si basano le decisioni umane e quelle delle macchine, dalla comunicazione tra questi

strumenti alle difficoltà di discriminazione percettiva in situazioni di alta complessità come quella rappresentata da uno scenario bellico, dalle questioni relative al diritto internazionale alle capacità comunicative della comunità scientifica, per finire con il ruolo che dovrebbe avere l’opinione pubblica in tutte le decisioni che riguardano l’applicazione bellica dell’intelligenza artificiale.
Si tratta di questioni cruciali e urgenti, come ci ricorda Battistelli nella sua introduzione al volume: «L’avvento dell’intelligenza artificiale è oggi un passaggio epocale che ha molti punti di contatto con un evento altrettanto ambivalente quale la liberazione dell’energia nucleare indotta dall’uomo. Adesso come allora, è compito degli scienziati indicare le vie per prevenire i rischi delle scoperte, mentre lo è dell’opinione pubblica convincere i governi a intraprenderle.» (p. 20).
Questo perché, come dice Parisi nella sua prefazione: «L’interesse dei militari ad espandere l’uso di armi autonome ha delle motivazioni chiarissime e giustificate dal loro punto di vista. Tuttavia, non possiamo permettere che un algoritmo debba risolvere problemi etici delicatissimi» (p. 14).
Proprio questo è il contributo più interessante del volume: la necessità di portare questioni apparentemente molto specialistiche e complesse all’attenzione dell’opinione pubblica, perché con lo sviluppo delle tecnologie basate sull’intelligenza artificiale i temi e i problemi affrontati dalla pubblicazione non possono più essere appannaggio esclusivo di tecnologie militari.
A questo proposito, citiamo ancora Parisi quando scrive che «Bisogna anche mobilitare l’opinione pubblica che sta assistendo rassegnata, come ad un fatto ineluttabile, alla progressiva introduzione di queste armi letali. Gli scienziati (sia delle scienze naturali e sociali, come coloro che hanno contribuito a questo libro) hanno una grande responsabilità nel comunicare questi aspetti delicati in maniera comprensibile ad una opinione ignara. Ma un compito estremamente importante spetta ai mezzi di informazione in maniera che venga esercitata una pressione sui decisori politici, che devono fare passi concreti per proteggere l’umanità dai danni più crudeli delle guerre» (p. 15).
Il Centro Ricerche sAu porta avanti progetti di ricerca basati su un’idea di tecnologia a sostegno della libertà umana e del diritto dei soggetti a conoscere e a orientare i propri comportamenti sulla base dei valori in cui si riconoscono. In tutti i domini delle nostre vite, compreso quello militare.
Ph.D., Ricercatore e socio fondatore del Centro Ricerche scientia Atque usus per la Comunicazione Generativa ETS.
Consulente presso Lab CfGC.

- Estratto di Dai droni alle armi autonome. Lasciare l’Apocalisse alle macchine? – Vai allo Scriptorium della Library di sAu