Avec l'avènement des IA génératives (LLM ou grand modèle de langage, mais aussi image, vidéo ou musique), mais aussi les énormes progrès accompli sur les autres formes de machine learning que l'on retrouve dans les robots, nous arrivons à un moment de basculement considérable.
Enseignement
TOUS les élèves utilisent les IA génératives dès qu'ils ont un écran connecté à internet disponible. Il est quasi impossible de les faire travailler sur écran sans. Le problème, c'est que ces LLM ne sont pas utilisé pour aider, ou rarement, mais pour se substituer à la tache à réaliser. Les élèves n'apprennent donc pas à rédiger, à construire un raisonnement, à se poser les bonnes questions, à vérifier les hypothèses. Ils sont dans la très grande majorité des cas incapable de poser une question pertinente à l'IA générative, se contentant de copier coller l'énoncé de la question, en mode bourrin.
Pédagogiquement parlant c'est un désastre. Comment leur apprendre à réfléchir et raisonner ? Ils sont dans l'esquive et non la formation. Les capacités des élèves faibles ou moyens sont en train de s’effondrer par rapport aux élèves plus performants qui semblent faire la part des choses. Le très, très peu d'esprit critiques qu'ont les élèves vis à vis des moteurs de recherche, disparaît complètement avec ce que produisent les LLM qui sont pris pour argent comptant en intégralité.
Connaissance et confiance
En ce moment, toutes les sources de connaissances et de savoirs ouvertes sont infectées par du contenus généré par LLM. On pense bien sûr à Wikipedia, mais aussi les sites et publications scientifiques, les journaux de vulgarisation et le web en général. Quantité de contenu généré alimentent les ce qui devrait être les référence pour la connaissance et le savoir, trop souvent avec un projet toxique derrière (manipulation politique, complotisme, influences étrangères...).
Les LLM sont en train de mettre en péril les sources de savoir en étant employé en lieu et place des humains, à des fin de tromperie.
Pire que cela, pour former les LLM, il faut les approvisionner avec de grande quantité de données créées par des humains si on veut qu'elles puisse les simuler. Si demain ces LLM sont formés avec du contenu généré par LLM, les processus d'apprentissage risquent de s'effondrer, ou conduire à des résultats de plus en plus mauvais. Ceci explique pourquoi les contenus générés par les humains sur les réseaux sociaux ont autant de valeur pour les acteurs de l'IA.
Perte d'emplois
Les grands groupes dans tous les secteurs, ont pris du temps avec le virage numérique dans les années 1980. Tous les process sont maintenant numériques, et les entreprises disposent d'années de données et d'optimisations de leur système d'information. Ces énormes volumes de données de fonctionnement des personnels mais aussi des clients, sont disponible pour la formation de machines. Le machine learning, ancêtre des LLM vient de faire un bon considérable avec ces derniers. Il est donc possible de remplacer une partie des missions des salariés par des machines. Ce qui était encore bafouillant il y a 5 ou 10 ans, devient performant et rentable aujourd'hui.
Microsoft a annoncé licencier des milliers de ses personnels qui seront remplacé par des "IA". Même chose dans tous les groupes du numériques qui sont les premiers à voir les avantages des LLM. En effet ces entreprises produisent déjà du numérique et les gains de productivités sont potentiellement gigantesques.
Recrutement
Le recrutement est aussi contaminé par les LLM. Nombre d'entreprises promettent l'utilisation d'IA pour filtrer les candidatures, et réduire les processus de recrutement. Bien sûr aucun de ces prestataires n'est capable de prouver que leur solution est pertinente, ce n'est qu'un filtre plein d'idée généreuses mais qui reste un filtre qui exclu toute personne aillant un profil atypique.
Facebook en a fait il y a quelques année la douloureuse expérience, où l'IA en charge de filtrer les recrutements, reproduisait fidèlement tous les biais racistes et genrées déjà existant dans l'entreprise, puisque l'apprentissage s'était fait sur les recrutements précédents.
Manipulation
Le principe d'une LLM ou IA générative, c'est d'être une boite noire qui construit elle même son mécanisme interne lors de la phase d'apprentissage et qui est ensuite capable de restituer un comportement vaguement attendu. Rien à voir avec une programme informatique classique qui ne peut faire que ce pour quoi il a été programmé.
Les sociétés qui conçoivent des IA génératives fournissent donc un effort colossale pour construire les sets d'apprentissage et ajoutent des garde-fou pour éviter que leur IAs n’hallucinent et ne répondent ou fassent n'importe quoi. Car par essence, pour une LLM, une phrase juste syntaxiquement a autant de valeur qu'une autre phrase juste syntaxiquement, et la pertinence est une notion exclusivement statistique.
Aujourd'hui, les organisations toxiques (états illibéraux, grande délinquance, escrocs, fanatiques...) créent des IA génératives volontairement dépourvues des protections, afin d’alimenter leur propagandes ou leurs intérêts dangereux, de contenus manipulateurs et toxiques.
Et on revient au premier chapitre de mon propos sur les élèves incapables d'avoir un esprit critique. Maintenant vous pouvez paniquer !
Ressources
- ChatGPT ramollit le cerveau ! Selon une étude de chercheurs au MIT, le recours à un Chatbot pour rédiger un essai affaiblit durablement les capacités cognitives , soulevant des inquiétudes quant aux implications éducatives à long terme de la dépendance aux LLM et le lien vers l'article
- Microsoft s’apprête à annoncer des milliers de licenciements : l’IA est en cause
- L’intelligence artificielle reproduit aussi le sexisme et le racisme des humains
- L’IA ne va pas vous piquer votre job : elle va vous empêcher d’être embauché !
- Intelligence artificielle et fake news, un cocktail qui fait trembler nos démocraties
- Intelligences Artificielles génératives et désinformation : bienvenue en post-vérité ?
Derniers commentaires