• Tutta l'Informazione Ninja nella tua mail

  • Il Regno Unito testa un’AI per identificare potenziali killer

    10 Aprile 2025

    Il Ministero della Giustizia britannico sta testando uno strumento di AI predittiva in grado di stimare se una persona potrebbe diventare un potenziale autore di crimini violenti, incluso l’omicidio.

    Il progetto, chiamato “Sharing Data to Improve Risk Assessment”, utilizza dati provenienti da archivi di polizia, cartelle cliniche e precedenti giudiziari per generare un “punteggio di rischio”.

    Come funziona l’intelligenza artificiale predittiva nel sistema giudiziario

    L’algoritmo considera fattori comportamentali e demografici: condizioni di salute mentale, abuso di sostanze, precedenti penali. Ufficialmente, il sistema è ancora in fase di ricerca e non verrà utilizzato per arresti o attività di sorveglianza.

    Ma la sola esistenza di un sistema simile solleva timori concreti sulla sua futura applicazione operativa.

    I rischi dell’uso dell’AI per prevedere i crimini

    Secondo il gruppo Statewatch, che ha ottenuto le informazioni tramite Freedom of Information, il sistema rischia di amplificare disuguaglianze esistenti.

    L’uso di dati storici potrebbe portare a profilare come “pericolosi” soggetti appartenenti a minoranze etniche, classi sociali svantaggiate o persone già note alla polizia, a causa di bias algoritmici.

    Il confine labile tra ricerca e giustizia predittiva

    Anche se il governo britannico insiste che il sistema è solo sperimentale, molti temono che i risultati generati finiscano per influenzare decisioni operative. Una volta che un algoritmo inizia a generare previsioni sui crimini, diventa difficile ignorarle. La pressione politica o sociale per “agire” in base a quei dati può portare a derive pericolose.

    LEGGI ANCHE: La maggior parte delle persone sa riconoscere immagini e testi generati da AI

    Dalla fantascienza alla realtà: l’ombra di Minority Report

    Il paragone con Minority Report non è solo cinematografico. L’idea di agire su base predittiva – prima che un crimine venga commesso – è oggi una possibilità reale.

    La sorveglianza predittiva è già una realtà in paesi come USA e Cina, dove strumenti simili sono stati collegati a una maggiore pressione sulle comunità marginalizzate.

    LEGGI ANCHE: Il 40% dei lavoratori a rischio con l’AI secondo l’ONU

    Profiling algoritmico e discriminazione sistemica

    La combinazione tra profiling algoritmico e database preesistenti rischia di rafforzare pregiudizi sistemici. L’AI non è neutra: riflette e amplifica i dati su cui è addestrata. Se quei dati sono già frutto di discriminazioni, le decisioni dell’algoritmo rischiano di perpetuarle.

    LEGGI ANCHE: L’agente AI Amazon fa acquisti al posto tuo. Ecco come funziona

    Confronto tra Regno Unito, USA e Cina sull’uso dell’AI predittiva

    Negli Stati Uniti, l’uso di algoritmi predittivi ha già portato a casi documentati di ingiustizie e errori sistemici, con polizia predittiva che concentra controlli in quartieri poveri o afroamericani. In Cina, il sistema di credit scoring sociale include valutazioni basate su comportamenti e relazioni. Il Regno Unito sembra ora avviarsi nella stessa direzione.

    Privacy e AI: un equilibrio difficile

    Quali dati usa l’intelligenza artificiale per prevedere un crimine? La questione della privacy e AI è centrale. L’accesso a informazioni sensibili come la salute mentale o le relazioni familiari solleva gravi interrogativi etici.

    Chi ha il diritto di accedere a questi dati? E con quali garanzie?

    LEGGI ANCHE: Le immagini in stile Ghibli con ChatGPT sono un trend virale (e un problema di copyright)

    Etica dell’intelligenza artificiale e giustizia predittiva

    Serve una riflessione urgente sull’etica dell’intelligenza artificiale applicata alla giustizia. Il rischio non è solo tecnico, ma sociale: automatizzare il sospetto, attribuire pericolosità in base a dati passati, trasformare previsioni in condanne morali.

    L’obiettivo della giustizia non è anticipare il crimine, ma valutare i fatti, non le probabilità.

    Tags:
    #AI