Il divario di sicurezza normativa messo in luce dalle carenze nella segnalazione degli incidenti legati all’intelligenza artificiale

Possono sorgere nuovi problemi quando non sono presenti quadri di segnalazione degli incidenti. Questi problemi possono diventare sistemici se non affrontati in modo appropriato. Ad esempio, i sistemi di intelligenza artificiale hanno il potenziale di danneggiare il pubblico revocando impropriamente l'accesso ai pagamenti della previdenza sociale. I risultati del CLTR, che si sono concentrati sulla situazione nel Regno Unito, potrebbero essere applicabili anche a molti altri paesi.

Secondo CLTR, il Dipartimento per la scienza, l’innovazione e la tecnologia (DSIT) del governo britannico non dispone di un sistema centralizzato e aggiornato per il monitoraggio degli incidenti che coinvolgono i sistemi di intelligenza artificiale. Sebbene alcuni enti regolatori possano raccogliere segnalazioni di incidenti, potrebbero non essere attrezzati per catturare i danni unici presentati dalle tecnologie di intelligenza artificiale all’avanguardia. Il CLTR ha evidenziato l’importanza di riconoscere i potenziali rischi associati ai modelli di intelligenza artificiale generativa ad alta potenza e la necessità di un quadro di segnalazione degli incidenti più completo in queste situazioni.

Lascia un commento