samedi, 20 avril 2024

L’IA prédit 90 % des crimes avant qu’ils ne se produisent, le créateur affirme qu’ils ne seront pas utilisés à mauvais escient

Une nouvelle IA conçue pour prédire le crime avant qu’il ne se produise a maintenant été testée dans plusieurs villes américaines, prédisant avec précision les événements environ 80 à 90 % du temps. L’IA est censée être conçue pour l’optimisation des politiques et l’allocation des ressources aux zones d’une ville qui en ont le plus besoin, mais les inquiétudes sont nombreuses quant au mauvais bilan de l’IA et à ses biais inhérents.

Maintenant, le créateur s’est entretenu avec BBC Science Focus dans une interview. Et il avait beaucoup à dire. Y compris expliquer pourquoi il pense que le déploiement de son IA serait une bonne chose.

Dans son dernier article, publié sur Nature Human Behavior, le professeur Ishanu Chattopadhyay et ses collègues font la démonstration d’un modèle d’IA prédictif dans huit grandes villes américaines. Le concept est simple : la ville de Chicago publie des journaux d’événements pour chaque crime, y compris où et quand le crime s’est produit, et ces données sont introduites dans un algorithme d’apprentissage automatique. Ensuite, la ville est séparée en morceaux de 90 mètres carrés (1 000 pieds carrés) et les journaux d’événements sont combinés avec les zones pour créer ce que les chercheurs appellent une «série chronologique». L’IA utilise ensuite ces séries chronologiques pour prédire les crimes en fonction de l’endroit et du moment où ils se produisent souvent.

Essentiellement, le modèle peut dire « il y aura probablement un vol à main armée dans cette zone spécifique ce jour précis », mais pas qui l’exécutera. Cela la distingue des autres technologies utilisées pour détecter la criminalité, telles que l’IA sur laquelle nous avons précédemment fait rapport et qui identifie les personnes les plus susceptibles d’être des criminels (ce qui était, bien sûr, horriblement raciste et imparfait ).

« Les gens craignent que cela ne soit utilisé comme un outil pour mettre les gens en prison avant qu’ils ne commettent des crimes. Cela ne se produira pas, car il n’a aucune capacité à le faire. Il prédit simplement un événement à un endroit particulier », a déclaré Chattopadhyay à BBC Science Focus.

Publicité

« Il ne vous dit pas qui va commettre l’événement ou la dynamique ou la mécanique exacte des événements. »

Cela soulève l’une des questions les plus importantes sur le sujet – dans le thème de nombreuses autres IA prédictives sociales, ce modèle est-il la proie des préjugés racistes et socio-économiques paralysants que tant d’autres ont fait avant lui ?

Selon Chattopadhyay, la méthode qu’ils ont utilisée pour former le modèle lui permet d’éviter ces biais, car ce sont simplement les journaux d’événements qui y sont alimentés. Il y a très peu d’entrées manuelles, et c’est censé être une bonne chose.

Publicité

« Nous avons essayé de réduire autant que possible les biais. C’est en cela que notre modèle est différent des autres modèles qui l’ont précédé », a-t-il ajouté.

Il reste maintenant à voir si les villes commenceront à utiliser un tel modèle pour l’élaboration des politiques, ou si elles resteront à l’écart sur la base de ses sombres antécédents. Les chercheurs semblent convaincus que leur IA peut contourner ces problèmes, mais étant donné le large éventail d’abus que ces systèmes ont, beaucoup restent sceptiques.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici