mercredi, 28 février 2024

L’IA est partout. Le DHS peut-il faire confiance à ce qu’il leur dit ?

Dans quelle mesure devrions-nous

s’appuyer sur l’intelligence artificielle ? Les gouvernements répondent actuellement à ce qui devient l’une des principales questions auxquelles les humains sont confrontés au XXIe siècle. La loi européenne sur l’IA a fait l’actualité dans toute l’ en tant que modèle destiné aux régulateurs du monde entier. Aujourd’hui, le Département américain de la Sécurité intérieure (DHS) a introduit ses propres politiques flambant neuves pour garantir que le département utilise correctement l’IA, avec des lignes directrices particulières pour la surveillance des outils de reconnaissance faciale et de capture biométrique du visage. Dans un communiqué, le DHS a résumé la nouvelle directive et a annoncé la visite

de le tout premier responsable de l’IA du ministère. Eric Hysen, qui est également le principal responsable de l’information du DHS, assumera ce rôle. Hysen a déclaré que « les politiques que nous révélons aujourd’hui garantiront que l’utilisation de l’IA par le ministère est exempte de discrimination et en totale conformité avec la loi, garantissant ainsi que nous maintenons la confiance du grand public ». le contrôle et l’exploitation des enfants parmi ses objectifs essentiels qui tirent parti des outils d’IA. Les dangers que ses toutes nouvelles politiques promettent de prévenir sont mûrs pour être suivis, contrôlés et exploités de toutes sortes. Veuillez jeter un œil à la caméra. Les deux politiques décrites dans le communiqué du DHS sont la déclaration de politique « Acquisition et utilisation

du système expert et de l’apprentissage automatique par les composants du DHS » et « Utilisation des technologies de reconnaissance faciale et de capture faciale ». une instruction. Les deux garantissent un bon comportement dans l’utilisation de l’IA et de l’innovation en matière de capture de données biométriques. La politique régissant l’IA stipule que « le DHS ne collectera, n’utilisera ni ne diffusera de données utilisées dans les activités d’IA, ni ne développera de systèmes basés sur l’IA qui font ou soutiennent des choix, basés sur une prise en compte inappropriée de la race, de l’origine ethnique, du sexe, de l’origine nationale, de la religion. , le sexe, l’orientation sexuelle, l’identité de genre, l’âge, la citoyenneté, l’état de santé ou la déficience. » L’instruction sur la reconnaissance faciale indique que « toutes les utilisations des innovations en matière de reconnaissance faciale et de capture faciale seront minutieusement testées pour garantir qu’il n’y a pas de prédisposition involontaire ou d’effet divers conformément aux normes nationales ». Ces exigences reposent sur le fait que l’IA soit un partenaire de confiance. La réalité est que les algorithmes sur le terrain ne font pas toujours ce que nous voulons ou anticipons. Alors que les non-conformistes de la technologie se demandent si les capacités de l’IA sont une raison de craindre ou de se réjouir, et que les conceptions linguistiques à grande échelle et les caméras de reconnaissance faciale finissent par être profondément ancrées dans notre infrastructure sociale, il convient de s’interroger sur la qualité des informations proposées par les machines. L’IA est votre amie ivre. Les sociétés de renseignement comprennent que les outils d’IA qu’elles utilisent ne sont peut-être pas les sources les plus fiables. S’exprimant lors du Billington Cybersecurity Top 2023, le principal responsable de l’innovation de la CIA

, Nand Mulchandani, a comparé l’IA

à un ami ivre dont la parole doit être prise avec un gros grain de sel, rapporte Breaking Defense. Les erreurs appelées hallucinations, qui se produisent lorsque de grandes conceptions linguistiques et d’autres systèmes d’intelligence artificielle établissent des corrélations incorrectes entre les informations, sont l’équivalent technologique des troubles de l’élocution ; considérez les doigts et membres supplémentaires grotesques qui circulent dans des publicités simulées développées avec des outils d’IA générative. Les possibilités déterminées par l’IA, dit Mulchandani, sont précisément celles-là : probables – mais pas certaines. Pour certains, cela ne suffit pas à établir une véritable confiance entre l’humain et le créateur. Quand l’IA est une bouilloire vide Dans un article publié sur The Discussion,

Mark Bailey, qui travaille dans le domaine du cyber-renseignement et de la science des données à la National Intelligence University, expose le problème lié au fait de s’appuyer sur l’IA pour prendre les bonnes décisions.

Soulignant cette pépite toujours utile du point de vue moral, le problème du chariot, Bailey souligne deux problèmes fondamentaux avec l’IA. Le tout premier, le problème de l’explicabilité de l’IA, est que le volume de critères spécifiés par l’IA et utilisés pour faire des choix basés sur la vraisemblance statistique la rend plus ou moins incompréhensible pour le facteur humain. « L’IA ne peut pas rationaliser sa prise de décision », écrit-il. Bailey. « Vous ne pouvez pas regarder sous le capot d’une automobile autonome ses milliers de milliards de spécifications pour expliquer pourquoi elle a décidé de le faire. L’IA ne répond pas à l’exigence prédictive de confiance.

 » Le deuxième problème , le problème du positionnement de l’IA, c’est qu’elle fonctionne dans un vide de contexte éthique et éthique. Il ne ressent ni responsabilité, ni regret, ni embarras, sentiments qui peuvent affecter la façon dont les humains font des choix complexes. « Contrairement aux êtres humains », explique Bailey, « l’IA ne modifie pas son comportement en fonction de la façon dont elle est perçue par les autres ou en adhérant à des normes éthiques. » Le fantôme de notre créateur n’est en réalité qu’une simple calculatrice sophistiquée ; ce n’est pas le Tin Male qui cherche un cœur, mais l’équipement d’impression baroque du Sorcier. À quoi ça sert? Pour le DHS, la CIA et d’autres agences de renseignement, les contraintes de l’IA ne la rendent cependant pas inefficace. Dans l’annonce politique du DHS, le secrétaire à la Sécurité intérieure, Alejandro N. Mayorkas, a qualifié l’IA de « puissante également que nous devons exploiter avec succès et de manière responsable ». Au cours de la même séance au cours de laquelle il l’a comparée à une personne ivre, Nand Mulchandani a vanté ses mérites. vertus en tant que méthode pour découvrir des modèles dans de grandes quantités d’informations et en tant que changeur de perspective qui peut surmonter la cécité conceptuelle chez les experts immergés dans un problème. Cela « peut vous offrir quelque chose qui dépasse tellement votre variété », a-t-il déclaré, « qu’il ouvre véritablement la perspective quant à l’endroit où vous allez aller ».

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici