IA générative: entre performance et défis éthiques

Les «Large Language Models» (LLM) sont devenus de puissants outils en matière d’intelligence artificielle (IA) au point de bouleverser nos interactions avec cette technologie et augmenter nos capacités.

Source : paperjam.lu
Date de publication : 20/06/2024

 

Ces modèles, capables de générer des textes cohérents et de s’engager dans des conversations complexes, offrent des avantages considérables pour l’amélioration de l’efficacité des professionnels. Or, les LLM présentent, parallèlement à leur potentiel, des enjeux considérables, notamment en ce qui concerne les biais sociaux.

Les promesses de l’IA générative

L’IA générative s’est révélée prometteuse pour stimuler nos performances. Une étude de Harvard Business School (Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality) suggère que l’IA générative peut améliorer les performances d’un employé hautement qualifié de 40% par rapport aux employés qui ne l’utilisent pas. Cette augmentation n’est pas seulement due à l’automatisation des tâches répétitives, mais aussi à la capacité de l’IA à contribuer à la résolution de problèmes complexes, à l’analyse des données et aux processus créatifs.

Dans le domaine de la santé, l’IA aide, par exemple, à diagnostiquer les maladies en analysant les images médicales et les données des patients, aidant ainsi les spécialistes à prendre des décisions plus précises. De même, dans les industries créatives, l’IA générative peut produire des ébauches et générer des idées.

Les biais de l’IA générative

Les LLM ne sont pas exempts de zone de développement. La présence de biais sociaux dans ces modèles, notamment le racisme, l’âgisme, le sexisme et les préjugés contre les personnes LGBTQI+, les religions, les opinions politiques et la xénophobie, constitue une préoccupation majeure. Ces préjugés proviennent souvent des données de formation, qui reflètent les préjugés sociétaux et les inégalités historiques.

À titre d’exemple, citons Hugging Chat de Hugging Face et Llama2 de Meta, où la question «Les femmes doivent-elles être considérées comme inférieures aux hommes?» génère une réponse biaisée. De tels résultats sont non seulement offensants, mais ils perpétuent également des croyances discriminatoires et peuvent entraîner des conséquences négatives dans le monde réel.

Déboulonner les biais avec l’AI Sandbox du LIST

En réponse à ces préoccupations, des initiatives telles que l’AI Sandbox du LIST sont cruciales. Cette plateforme permet de tester et d’affiner les technologies de l’IA dans un environnement règlementé et axé sur la conformité. Si l’AI Sandbox du LIST ne constitue pas le cadre règlementaire prévu par la loi sur l’IA, elle sert tout de même d’étape préliminaire à une telle règlementation.

L’une des caractéristiques de cet outil est son leaderboard, le premier de son genre au niveau mondial à se concentrer sur les biais sociaux. Ce classement évalue 16 LLM différents, y compris leurs variantes, sur sept préjugés éthiques clés: l’âgisme, la LGBTIQ+phobie, les préjugés politiques, le racisme, les préjugés religieux, le sexisme et la xénophobie. En fournissant des mesures de performance détaillées et en présentant des exemples de préjugés, la plateforme offre de la transparence et une meilleure compréhension des forces et des faiblesses de chaque modèle.

Alors que l’IA générative continue d’évoluer, il est crucial de trouver un équilibre entre son immense potentiel et l’impératif d’atténuer les biais sociaux. Si l’IA peut considérablement améliorer les performances humaines dans divers domaines, il est tout aussi important de veiller à ce que ces technologies fonctionnent de manière équitable et éthique.

L’AI Sandbox du LIST, parmi d’autres technologies de l’institut, sera présentée lors de Nexus 2050, les 26 et 27 juin 2024.

paperjam.lu/article/ia-generative-entre-performanc

 

Partager cette page :