Possono sorgere nuovi problemi quando non sono presenti quadri di segnalazione degli incidenti. Questi problemi possono diventare sistemici se non affrontati in modo appropriato. Ad esempio, i sistemi di intelligenza artificiale hanno il potenziale di danneggiare il pubblico revocando impropriamente l'accesso ai pagamenti della previdenza sociale. I risultati del CLTR, che si sono concentrati sulla situazione nel Regno Unito, potrebbero essere applicabili anche a molti altri paesi.
Secondo CLTR, il Dipartimento per la scienza, l’innovazione e la tecnologia (DSIT) del governo britannico non dispone di un sistema centralizzato e aggiornato per il monitoraggio degli incidenti che coinvolgono i sistemi di intelligenza artificiale. Sebbene alcuni enti regolatori possano raccogliere segnalazioni di incidenti, potrebbero non essere attrezzati per catturare i danni unici presentati dalle tecnologie di intelligenza artificiale all’avanguardia. Il CLTR ha evidenziato l’importanza di riconoscere i potenziali rischi associati ai modelli di intelligenza artificiale generativa ad alta potenza e la necessità di un quadro di segnalazione degli incidenti più completo in queste situazioni.