INTELLIGENZE ARTIFICIALI LETALI: PROVE DI NORMAZIONE E DI STERMINIO

Estratto dalla puntata del 8 aprile 2024 di Bello Come Una Prigione Che Brucia

 

Il 22 dicembre 2023 si è tenuta presso le Nazioni Unite una votazione per approvare una risoluzione funzionale a promuovere le negoziazioni per una possibile regolamentazione dei Sistemi d’Arma Autonomi Letali. Mentre proliferano i programmi di ricerca e sviluppo di intelligenze artificiali applicate al settore militare, mentre sistemi d’arma con sempre maggiori gradi di autonomia vengono utilizzati in Ucraina e su Gaza, alle Nazioni Unite si vota per “promuovere delle negoziazioni”: una risoluzione così irrilevante che persino gli Stati Uniti hanno votato a favore nonostante il loro storico interesse a sviluppare queste tecnologie senza alcun vincolo normativo.

Partendo da uno sguardo sulle evoluzioni riguardanti la definizione di LAWS (Lethal Autonomous Weapon Systems) e i blandi tentativi di diplomazia geotecnologica per normare queste tecnologie, arriviamo a osservare quanto emerso riguardo al ruolo delle AI nello sterminio della popolazione palestinese: Lavender per definire gli obbiettivi tra i bassi ranghi di Hamas e Where is Daddy? per capire quando colpirli all’interno delle proprie abitazioni insieme alle proprie famiglie e al vicinato.

Un dato agghiacciante emerso dal prezioso lavoro del giornalista di inchiesta israeliano Yuval Abraham (+972 Magazine e Local Call ), riguarda il livello di “verifica” sommaria operata dagli umani rispetto alle decisioni prese da un apparato cognitivo artificiale.

Oltre a osservare la differenza di visibilizzazione e di reazioni suscitate dal massacro (per mezzo di droni) di operatrici e operatori umanitari non-subumanizzati (World Central Kitchen), la parte conclusiva di questo approfondimento si concentra sulla relazione subordinata tra sistemi cognitivi umani e sistemi cognitivi artificiali.

 




Radio Blackout 105.25

One station against the nation

Current track
TITLE
ARTIST