Le chef de l’industrie européenne Thierry Breton a déclaré que les nouvelles règles proposées en matière d’intelligence artificielle viseront à répondre aux préoccupations concernant les risques liés au chatbot ChatGPT et à la technologie d’IA, dans les premiers commentaires sur l’application d’un haut responsable bruxellois.
Deux mois seulement après son lancement, ChatGPT – qui peut générer des articles, des essais, des blagues et même de la poésie en réponse à des invites – a été classée comme l’application grand public à la croissance la plus rapide de l’histoire.
Certains experts ont soulevé des craintes que les systèmes utilisés par de telles applications pourraient être utilisés à mauvais escient pour le plagiat, la fraude et la diffusion de fausses informations, même si les champions de l’intelligence artificielle le saluent comme un saut technologique.
Breton a déclaré que les risques posés par ChatGPT-l’idée originale d’OpenAI, une entreprise privée soutenue par Microsoft – et les systèmes d’IA ont souligné le besoin urgent de règles qu’il a proposées l’année dernière dans le but d’établir la norme mondiale pour la technologie. Les règles sont actuellement en discussion à Bruxelles.
“Comme le montre ChatGPT, les solutions d’IA peuvent offrir de grandes opportunités aux entreprises et aux citoyens, mais peuvent également présenter des risques. C’est pourquoi nous avons besoin d’un cadre réglementaire solide pour garantir une IA fiable basée sur des données de haute qualité”, a-t-il déclaré à Reuters dans des commentaires écrits.
Microsoft a refusé de commenter la déclaration de Breton. OpenAI- dont l’application utilise une technologie appelée IA générative- n’a pas immédiatement répondu à une demande de commentaire.
OpenAI a déclaré sur son site Web qu’elle vise à produire une intelligence artificielle qui”bénéficie à toute l’humanité”alors qu’elle tente pour construire une IA sûre et bénéfique.
Selon le projet de règles de l’UE, ChatGPT est considéré comme un système d’IA à usage général qui peut être utilisé à des fins multiples, y compris celles à haut risque telles que la sélection de candidats pour des emplois et des crédits notation.
Breton souhaite qu’OpenAI coopère étroitement avec les développeurs en aval de systèmes d’IA à haut risque pour permettre leur conformité avec la loi proposée sur l’IA.
“Le simple fait que l’IA générative ait été récemment incluse dans la définition montre la vitesse à laquelle la technologie se développe et que les régulateurs ont du mal à suivre ce rythme”, a déclaré un associé d’un cabinet d’avocats américain..
INQUIÉTUDES À”RISQUE ÉLEVÉ”
Les entreprises craignent que leur technologie ne soit classée dans la catégorie d’IA”à haut risque”, ce qui entraînerait des exigences de conformité plus strictes et des coûts plus élevés, selon les dirigeants de plusieurs entreprises impliquées dans le développement de l’intelligence artificielle.
Une enquête menée par l’organisme industriel AppliedAI a montré que 51 % des personnes interrogées s’attendent à un ralentissement de leurs activités de développement de l’IA en raison de la loi sur l’IA.
Une réglementation efficace de l’IA devrait se concentrer sur les applications les plus à risque, a écrit mercredi le président de Microsoft, Brad Smith, dans un article de blog.
“Il y a des jours où je suis optimiste et des moments où je suis pessimiste quant à la façon dont l’humanité utilisera l’IA”, a-t-il déclaré.
Breton a déclaré que la Commission européenne travaillait en étroite collaboration avec le Conseil de l’UE et le Parlement européen pour clarifier davantage les règles de la loi sur l’IA pour les systèmes d’IA à usage général.
“Les gens devraient être informés qu’ils ont affaire à un chatbot et non à un être humain être. La transparence est également importante en ce qui concerne le risque de biais et de fausses informations”, a-t-il déclaré.
Les modèles d’IA générative doivent être formés sur une énorme quantité de texte ou d’images pour créer une réponse appropriée menant à des allégations de droit d’auteur. violations.
Breton a déclaré que les discussions à venir avec les législateurs sur les règles de l’IA couvriraient ces aspects.
Les inquiétudes concernant le plagiat par les étudiants ont incité certaines écoles publiques américaines et l’université française Sciences Po à interdire l’utilisation de ChatGPT.
© Thomson Reuters 2023
Les liens d’affiliation peuvent être générés automatiquement-consultez notre déclaration d’éthique pour plus de détails.