Crédit : Thinkstock
L’Autorité britannique de la concurrence et des marchés (CMA) a mis en garde contre les risques potentiels de l’intelligence artificielle dans son évaluation récemment publiée des modèles de structure d’IA.
Les modèles de structure sont des systèmes d’IA qui ont été formés sur d’énormes ensembles de données non étiquetés. Ils sous-tendent les conceptions de langages à grande échelle, comme GPT-4 d’OpenAI et PaLM de Google, pour des applications d’IA générative comme ChatGPT, et peuvent être utilisés pour une grande variété de tâches, telles que la traduction de textes et l’examen d’images médicales.
Le nouveau rapport propose un certain nombre de principes pour orienter le développement et l’utilisation continus des conceptions de structures, en s’appuyant sur la contribution de 70 parties prenantes, composées d’une variété de développeurs, d’entreprises, d’organisations de clients et industrielles, d’universitaires et d’informations offertes au public.
Les principes proposés sont :
- Responsabilité : les développeurs et les déployeurs de modèles de structure d’IA sont responsable des résultats offerts aux consommateurs.
- Accédez à : Un accès préparé et continu aux intrants cruciaux, sans limitations inutiles.
- Diversité : Diversité soutenue des conceptions commerciales, composées à la fois d’entreprises ouvertes et fermées. .
- Option : option suffisante pour les services afin qu’ils puissent décider comment utiliser les modèles de fondation.
- Polyvalence : avoir la polyvalence nécessaire pour changer et/ou utiliser de nombreux modèles de fondation en fonction des besoins.
- Utilisation équitable : aucun comportement anticoncurrentiel consistant en l’auto-préférence, la vente liée ou le regroupement.
- Ouverture : les clients et les services se voient proposer des détails sur les dangers et les restrictions du matériel généré par le modèle de base afin qu’ils puissent peuvent faire des choix éclairés.
Des conceptions d’IA insuffisamment établies pourraient entraîner des dommages sociaux
Alors que le rapport CMA souligne comment les individus et les entreprises ont tout à gagner d’une IA correctement réalisée et bien menée. modèles de base établis, il a averti que si la concurrence est faible ou si les concepteurs d’IA cessent de s’efforcer de respecter les lois sur la protection des clients, cela pourrait causer des dommages à la société. Les exemples donnés incluent des citoyens exposés à des « niveaux substantiels » d’informations incorrectes et trompeuses et à des escroqueries basées sur l’IA.
La CMA a également averti qu’à long terme, la suprématie du marché d’un petit nombre d’entreprises pourrait entraîner des préoccupations anticoncurrentielles, avec des joueurs établis utilisant des conceptions de base pour consolider leur position et fournir des produits ou des services trop chers ou de mauvaise qualité.
« La vitesse à laquelle l’IA entre dans la vie quotidienne des personnes et des services est significative. Il y a « La capacité réelle de cette technologie à booster l’efficacité et à rendre des millions de tâches quotidiennes beaucoup plus faciles – mais nous ne pouvons pas prendre pour acquis un avenir favorable », a déclaré Sarah Cardell, PDG de la CMA, dans des remarques publiées avec le rapport. /p>
« Il reste un réel danger que l’utilisation de l’IA se développe d’une manière qui sape la confiance des consommateurs ou soit contrôlée par quelques acteurs qui exercent un pouvoir de marché qui empêche que tous les avantages se fassent sentir dans l’ensemble de l’économie. »
La CMA a déclaré que dans le cadre de son programme d’engagement, elle continuerait à s’adresser à un large éventail de parties intéressées, composées de groupes de consommateurs, de gouvernements, d’autres régulateurs et de principaux développeurs de conception de fondations d’IA tels qu’Anthropic, Google, Meta, Microsoft, NVIDIA et OpenAI.
Le régulateur proposera une mise à niveau de sa réflexion, portant sur la manière dont les principes ont été acquis et adoptés, début 2024.
Que sont Quelles sont les prochaines actions de la CMA ?
La CMA n’est qu’un des régulateurs que le gouvernement britannique a chargé de peser sur la politique nationale en matière d’IA. En mars, le gouvernement fédéral a publié un livre blanc exposant ses lignes directrices pour une « utilisation responsable » de l’innovation.
Afin d’« éviter une législation lourde qui pourrait étouffer le développement », le gouvernement a décidé confier la responsabilité de la gouvernance de l’IA aux régulateurs sectoriels qui devront s’appuyer sur les pouvoirs existants en l’absence de toute nouvelle loi.
« La CMA a en fait montré un désir admirable de s’engager de manière proactive dans un secteur en croissance rapide. secteur de l’IA, afin de garantir que ses programmes en matière de concurrence et de protection des consommateurs soient engagés le plus tôt possible », a déclaré Gareth Mills, associé du cabinet d’avocats Charles Russell Speechlys.
Il a ajouté que même si les concepts contenus dans le Le rapport est « nécessairement large », ils ont été clairement créés pour produire des conditions d’entrée faibles dans le secteur, permettant aux petits acteurs de réussir avec des noms plus établis, tout en réduisant le potentiel des technologies d’IA d’affecter négativement les clients.
« Il sera fascinant de voir comment la CMA cherche à contrôler le marché pour garantir que les problèmes des concurrents soient pris en compte », a déclaré Russell.
Toute l’actualité en temps réel, est sur L’Entrepreneur