ChatGPT, un programme d’intelligence artificielle en plein essor, a été salué pour sa capacité à rédiger rapidement des réponses à un large éventail de requêtes, et a attiré l’attention des législateurs américains avec des questions sur son impact sur la sécurité nationale et l’éducation.
On estime que ChatGPT a atteint 100 millions d’utilisateurs actifs mensuels deux mois seulement après son lancement, ce qui en fait l’application grand public à la croissance la plus rapide de l’histoire et une cible croissante pour la réglementation.
Il a été créé par OpenAI, une société privée soutenue par Microsoft, et mis gratuitement à la disposition du public. Son omniprésence a fait craindre que l’IA générative telle que ChatGPT puisse être utilisée pour diffuser de la désinformation, tandis que les éducateurs craignent qu’elle ne soit utilisée par les étudiants pour tricher.
Le représentant Ted Lieu, démocrate au sein du comité scientifique de la Chambre des représentants, a déclaré dans un récent article d’opinion du New York Times qu’il était enthousiasmé par l’IA et les”façons incroyables dont elle continuera à faire progresser la société,”mais aussi”paniqué par l’IA, en particulier l’IA qui n’est pas contrôlée et non réglementée”.
Lieu a présenté une résolution rédigée par ChatGPT selon laquelle le Congrès devrait se concentrer sur l’IA”pour garantir que le développement et le déploiement de l’IA se fait d’une manière sûre, éthique et respectueuse des droits et de la vie privée de tous les Américains, et que les avantages de l’IA sont largement distribués et que les risques sont minimisés.”
En janvier, le PDG d’OpenAI, Sam Altman, s’est rendu à Capitol Hill où il a rencontré des législateurs axés sur la technologie tels que les sénateurs Mark Warner, Ron Wyden et Richard Blumenthal et le représentant Jake Auchincloss, selon des assistants des législateurs démocrates.
Un collaborateur de Wyden a déclaré que le législateur avait insisté sur la nécessité de s’assurer que l’IA n’incluait pas les préjugés qui conduiraient à la discrimination dans le monde réel, comme le logement ou l’emploi.
“Alors que le sénateur Wyden pense que l’IA a un énorme potentiel pour accélérer l’innovation et la recherche, il se concentre sur le fait que les systèmes automatisés n’automatisent pas la discrimination dans le processus », a déclaré Keith Chu, un assistant de Wyden.
Un deuxième collaborateur du Congrès a décrit les discussions comme se concentrant sur la vitesse des changements dans l’IA et sur la manière dont elle pourrait être utilisée.
Incité par des craintes de plagiat, ChatGPT a déjà été interdit dans les écoles de New York et de Seattle, selon les médias. Un assistant du Congrès a déclaré que les inquiétudes exprimées par les électeurs provenaient principalement d’éducateurs axés sur la tricherie.
OpenAI a déclaré dans un communiqué :”Nous ne voulons pas que ChatGPT soit utilisé à des fins trompeuses dans les écoles ou ailleurs , nous développons donc déjà des mesures d’atténuation pour aider quiconque à identifier le texte généré par ce système.”
Dans une interview avec Time, Mira Murati, directrice de la technologie d’OpenAI, a déclaré que la société accueillait les commentaires, y compris des régulateurs et Gouvernements.”Il n’est pas trop tôt (pour que les régulateurs s’impliquent)”, a-t-elle déclaré.
Andrew Burt, associé directeur de BNH.AI, un cabinet d’avocats spécialisé dans la responsabilité liée à l’IA, a souligné les problèmes de sécurité nationale, ajoutant qu’il a parlé avec des législateurs qui étudient l’opportunité de réglementer ChatGPT et des systèmes d’IA similaires tels que Google’s Bard, bien qu’il ait déclaré qu’il ne pouvait pas divulguer leurs noms.
“Toute la proposition de valeur de ces types de systèmes d’IA est qu’ils peuvent générer du contenu à des échelles et à des vitesses que les humains ne peuvent tout simplement pas”, a-t-il déclaré.
“Je m’attendrais à ce que des acteurs malveillants, des acteurs non étatiques et des acteurs étatiques qui ont des intérêts opposés aux États-Unis utilisent ces systèmes pour générer des informations qui pourraient être fausses ou nuisibles.”
ChatGPT lui-même, lorsqu’on lui a demandé comment il devrait être réglementé, s’est opposé et a déclaré :”En tant que modèle de langage d’IA neutre, je n’ai pas de position sur les lois spécifiques qui peuvent ou non être promulguées pour réglementer l’IA. des systèmes comme moi.”Mais il a ensuite énuméré les domaines d’intérêt potentiels pour les régulateurs, tels que la confidentialité des données, la partialité et l’équité, et la transparence dans la rédaction des réponses.
© Thomson Reuters 2023
Des liens d’affiliation peuvent être généré automatiquement-consultez notre déclaration d’éthique pour plus de détails.