samedi, 20 avril 2024

L’impact de l’IA sur les tâches de vérification d’identité : qui devrait être concerné ?

Par

Ihar Kliashchou, directeur de l’innovation chez Regula

Dans l’actualité, les leaders technologiques et Les spécialistes de l’intelligence artificielle (IA) ont nécessité une pause de six mois pour développer des systèmes plus puissants que la conception du langage d’OpenAI, GPT-4. Cette relocalisation a été faite non pas parce qu’ils craignent un avenir dystopique où la robotique prend le contrôle de l’humanité, mais en raison des risques potentiels pour la société que présentent ces systèmes sophistiqués. Parmi ces risques, il y a le déplacement des tâches, la perpétuation des préjugés existants et des structures sociétales nuisibles, l’absence de transparence et d’interprétabilité des systèmes d’IA avancés, et son utilisation prospective avec une fonction destructrice.

Le déplacement d’emplois est en effet un véritable problème. À mesure que les systèmes avancés d’IA et d’intelligence artificielle deviennent plus performants, ils sont considérablement capables d’effectuer des tâches qui étaient auparavant effectuées par des personnes, ce qui peut entraîner des pertes d’emplois et un chômage de masse sur des marchés particuliers. Les progrès de la robotique et de l’automatisation ont en fait déjà entraîné un déplacement des tâches dans les secteurs de la production et de la logistique. L’évolution des systèmes de traitement du langage naturel (TAL) et des chatbots pourrait entraîner des pertes de tâches dans les rôles de service client et d’assistance.

Est-ce également le cas pour les emplois associés à la vérification d’identité ? Ce que nous voyons maintenant, c’est que les systèmes de vérification d’identité basés sur l’IA peuvent être plus efficaces et plus précis que la confirmation humaine, ce qui entraîne le déplacement de travailleurs dans ce domaine.

Quelques-uns des travaux IDV courants qui peuvent être effectués par l’IA – plus rapide et plus précise que celle effectuée par les êtres humains – consiste en : la vérification des fichiers, la reconnaissance faciale, la vérification biométrique (empreintes digitales, scans de l’iris ou voix), l’analyse du comportement (les modèles de comportement d’un individu, tels que la méthode qu’il adopte avec leur gadget ou la méthode qu’ils tapent sur un clavier), l’évaluation des menaces (en examinant des aspects tels que la zone, l’appareil et les habitudes de l’utilisateur) et la détection des fraudes (en analysant les modèles et les anomalies dans les informations).

Alors que les systèmes d’intelligence artificielle et d’apprentissage automatique peuvent automatiser de nombreux aspects de la vérification d’identité, certaines tâches nécessitent toujours une participation humaine : ces systèmes apprennent à partir des informations sur lesquelles ils sont formés, qui peuvent dans certains cas être incomplètes, biaisées ou ne pas représenter le monde réel . De plus, ils peuvent être confrontés à des scénarios nouveaux ou inattendus sur lesquels ils n’ont en fait pas été formés, ce qui peut entraîner des erreurs ou des erreurs dans leurs prédictions ou leurs décisions. Dans le contexte de la vérification d’identité, il peut y avoir des cas où un système d’intelligence artificielle prend une décision inexacte, comme ne pas reconnaître une pièce d’identité trompeuse ou signaler à tort une pièce d’identité authentique comme suspecte. Dans ces cas, la surveillance et l’intervention humaines peuvent aider à corriger ces erreurs et garantir que le processus de confirmation est précis et fiable.

En outre, les réglementations et les normes doivent rester en place pour s’assurer que l’IA est utilisée de manière juste et équitable. de manière transparente. Cela consiste à garantir que la vie privée et la sécurité des données individuelles sont protégées, que l’IA n’est pas utilisée pour victimiser des individus ou des groupes. Si un système d’IA utilisé pour la confirmation d’identité est formé pour identifier les comportements suspects sur la base de données historiques, il peut être plus susceptible de signaler injustement des personnes ou des groupes spécifiques en fonction d’aspects tels que la race, l’origine ethnique ou le sexe, même s’ils ne présentent aucun risque réel. .

L’Europe est l’une des toutes premières à s’orienter vers une gestion de l’IA basée sur sa capacité à causer des dommages. Le Parlement européen devrait finaliser sa position sur la loi sur l’IA, visant à gérer l’utilisation de l’IA, d’ici la fin avril, après quoi il participera aux négociations avec le Conseil et la Commission de l’UE. D’autre part, la Commission australienne des droits de l’homme a également suggéré une toute nouvelle loi nationale sur les droits de l’homme pour réduire la discrimination potentielle provoquée par l’IA. Cela montre que l’Europe et l’Australie prennent toutes deux des mesures proactives pour gérer l’IA afin de s’assurer qu’elle est utilisée de manière équitable et transparente.

En raison de ces préoccupations, les récentes nécessitent une pause dans la mise en place de systèmes plus puissants que GPT- 4 est une avancée bienvenue et comprise. En réfléchissant en profondeur aux risques et avantages potentiels des systèmes alimentés par l’IA, nous pouvons travailler à optimiser leurs avantages pour la société tout en réduisant les dommages éventuels pour les employés de divers marchés et pour la société en général.

À propos de l’auteur

Ihar Kliashchou est le directeur de l’innovation chez Regula.

AVIS DE NON-RESPONSABILITÉ : les informations sur le marché de Biometric Update sont envoyées. Les opinions révélées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement les opinions de Biometric Update.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici