Formation, l’invasion de l’IA a commencé

par | 18 avril 2023 | Technologie

Depuis notre précédent article, voilà près d’un an (https://affen.fr/technologie/lia-est-elle-lavenir-de-la-creation-de-contenus-en-formation/), l’Intelligence artificielle est devenue le sujet à la mode de la tech. ChatGPT génère 677 millions d’occurrences sur Google. L’IA générative est à la mode. Mais la mode ne fait pas une réalité. Les bulles technologiques existent et ont vocation a explosé. Alors après le blockchain, le Métaverse, les NFT, la nouvelle bulle, serait-elle celle de l’IA générative ? Faut-il croire en cette technologie ? Quelles sont les conséquences pour la formation ?

1, L’IA générative est disruptive pour la formation

L’IA générative représente les algorithmes qui utilisent des contenus existants pour apprendre et générer de nouveaux contenus. The economist en a fait sa couverture (11 juin 2022) et parle de nouvelle frontière franchie par l’IA. Que ce soit avec Dall-e2, Midjourney ou Stable Diffusion, l’IA peut dès aujourd’hui produire en grande quantité des images. Que ce soit avec ChatGPT d’OpenIA ou d’autres plateformes, l’IA peut produire en grande quantité des textes de qualité. Déjà, Amazon annonce plus de 200 livres achetables en ligne qui auraient été produite avec ChatGPT, le modèle économique se construit. Il est, d’ailleurs, fort à parié que le chiffre soit minoré, car il y a tous les utilisateurs qui se refusent à l’avouer et qui pour le moins se sont inspirés de cette technologie. Et que dire de l’audio où par exemple Spotify annonce la création d’un DJ numérique qui animera en live une émission de présentation de podcasts. L’IA générative explose, en quelques mois.

Ce n’est pas la première fois qu’une IA écrit un article ex nihilo, même des articles scientifiques crédibles, la nouveauté tient dans le fait que grâce au prompt, la démarche devient ergonomique et accessible au plus grand nombre. Cela ouvre à des usages nouveaux. Il est par exemple possible de demander à l’IA de faire une synthèse de 300 mots sur un rapport de complexe que l’on n’aurait jamais pris le temps de lire. Mieux, avec l’historique des prompts, l’IA peut savoir ce qui est intéressant pour moi sans avoir à formuler un prompt précis. Si aujourd’hui, certains parlent de prompt ingénieur, où l’homme s’adapte au langage machine, à terme, c’est la machine qui s’adaptera à l’usager. Que faut-il en penser ? Ecouter plus de vidéos, de podcasts, d’ebooks, de livres,… augmentent la productivité personnelle de chaque usager. La grande promesse de l’IA est d’accroître la performance personnelle de chacun.

Qu’est-ce que cela change pour la formation, outre de faire de l’IA un collaborateur de la performance des apprenants ? L’IA générative permet à chaque apprenant d’être créateur du contenu qu’il désire. Le vieux rêve d’Ivan Illich de faire de l’apprenant « l’auteur » de ses apprentissages peut devenir ainsi réalité. L’apprenant grâce à son interaction avec l’IA générative peut définir lui-même ses objectifs pédagogiques et le cheminement pour les atteindre. L’apprenant devient tout à la fois, formateur, pédagogue et manager de sa formation. L’IA générative permet d’acquérir une nouvelle liberté d’apprendre sans l’intermédiation sociale traditionnelle de la formation.

2, La guerre de l’IA a déjà commencé

L’IA générative conversationnelle est une plateforme qui permet par connexion à chacun de se connecter. Reste à savoir qu’elle est la meilleure plateforme. C’est la guerre des plateformes. Si l’inventeur des algorithmes de « transformer » est Google, on peut rappeler que le « T » de ChatGPT (Generative Pretrained Transformer) signifie « Transformer », c’est Microsoft qui a lancé la guerre avec le nouveau BING. Google a réagi avec BARD et son fameux LaMDA (Langage Model for Dialogue Application), Meta réagit avec Toolformer qui semble prometteur, car avec moins de paramètres, il arrive à des résultats assez proches (6,7 milliards de paramètres contre 175 pour GPT3) et c’est sans parler des nouveaux entrants comme OpenAI, You.com, et bien d’autres. Les Chinois communiquent peut, mais Baidu annonce le lancement de Ernie bot. La course est lancée.

Les modèles économiques se mettent en place sous nos yeux. ChatGPT, lancé par OpenAI, propose un forfait de 20 $ par mois pour en avoir un accès illimité, cela représente 240 $ par an pour créer du contenu de façon illimitée. Les investissements sont lourds. OpenAI annonce le lancement de GPT4 (après GPT3 Pro) passant de 175 milliards de paramètres à 100 000 milliards. D’autres des modèles plus légers. C’est le syndrome de la Reine rouge, dans de L’autre côté du miroir (Lewis Carroll, 1871) : « Ici, vois-tu, on est obligé de courir tant qu’on peut pour rester au même endroit. Si l’on veut aller ailleurs, il faut courir au moins deux fois plus vite que ça ». Courir comparativement plus vite que les autres pour ne pas disparaître. Ce qui se joue, c’est de savoir qui deviendra le leader des années à venir.

La disruption avance à grand pas, puisque des alliances se structurent. On pourrait citer Snap ou Spotify qui intègre OpenAI dans leurs applis. Mais le plus engagé est Microsoft qui mise tout sur OpenAI avec comme on l’a vu Edge et le new Bing, mais aussi Excel, et surtout Teams avec la création de nouvelles fonctionnalités comme le fait pour les réunions vidéo de pouvoir automatiquement générer des résumés, les points forts, des plans d’actions, l’évaluation de toutes les interventions (voir un taux d’engagement)… de générer un teaser adapté aux plateformes choisies. Les usages s’inventent comme pour les réseaux sociaux par le haut, mais leur validation se fait par le bas. Il s’agit d’une créativité nouvelle offerte aux usagers. En formation, il s’agit de laisser aux apprenants la main sur les innovations. Cela correspond assez bien à l’idée de remettre l’apprenant au centre de la formation.

3, Faut-il louer le vertige technologique ?

La sidération technologique est de donner un sentiment instantané sans mise en perspective. La stratégie au contraire codifie les conséquences d’une situation. Le vertige doit s’ouvrir à des perspectives. On peut commencer par le fait que l’IA générative manque de transparence. Les créateurs en font même un argument fort, cela assure la sécurité du système. Ne pas définir précisément le traitement de l’information, faire de l’IA une « boite noire » est un moyen de lutter contre le hacking. Il est vrai qu’avec l’architecture de l’IA, le prompt permet de reprogrammer la machine à sa convenance. L’argument légitime de la lutte contre le hacking ne doit pas faire oublier que c’est aussi un moyen de se préserver des droits de propriété et d’assurer ainsi une rente technologique. Les entreprises, qui maîtrise l’algorithme, maîtrise la gestion de la data. Le risque est d’assister au syndrome Skynet, dans Terminator, de laisser la machine assurer son propre contrôle des choses et au final du monde.

Mais la remarque la plus répandu dans la littérature est que les IA reproduisent des biais sociologiques et reproduit ainsi des dysfonctionnements iniques. Elon Musk par exemple critique le biais woke de ChatGPT. La critique est de deux ordres. Le premier est de faire avancer un projet politique au sens noble du terme sous couvert de technologie. La critique porte sur l’absence de débat démocratique pour une technologie qui nous promet de changer le monde. Le second, pas très éloigner du premier, est présenté comme le fait de lutter contre les stéréotypes. Or, comme nous l’avons déjà vu (https://affen.fr/pedagogie/lamnesie-numerique-sonne-t-elle-la-fin-du-mobile-learning/) les stéréotypes servent de fondement à la pensée et à l’intelligence, il ne s’agit pas tant d’éviter les stéréotypes que de choisir les stéréotypes socialement acceptables. Toutes les formations sont baisées. La question est de savoir si le choix du stéréotype correspond à ce que la société trouve être le Bien. L’IA doit être éthiquement supervisée. Reste à définir qui aura le final cut ?

La question plus générale est celle de souveraineté. Eric Schmidt, ex-CEO de Google, prédit qu’il existera deux mondes de l’IA, les Etats-Unis et la Chine, reste à s’interroger sur la souveraineté des pays qui n’investissent pas dans des IA génératives. Certains parlent de « colonisation numérique ». La gouvernance du numérique pose question. Si l’on reprend l’exemple du traitement de l’information des « antivax » pendant la crise du COVID par les GAFAM. Les entreprises ont décidé de s’engager dans une position politique. Elles ont décidé d’écarter, de déréférencer, voire de bannir ceux qui n’était pas politiquement correct. Or avec le temps, certaines remarques de l’époque sont aujourd’hui des vérités. Sans revenir sur la notion de vérité sociale, la question est de savoir quelle autorité une entreprise privée a-t-elle d’imposer sa vérité à un moment donné. L’Etat peut le faire grâce à une légitimité démocratique par exemple, mais doit-on s’en remettre à des entreprises privées ? Si l’on revient à la formation. La formation est un apprentissage social, elle répond donc à une vérité sociale. L’apprenant, doit-il être rationnel, émotionnel, relationnel ou autre ? De quel apprenant parle-t-on, mais surtout qui décide ? Etats-Unis, Chine, France, ce n’est pas le même regard. Problème de souveraineté.

L’IA générative, en formation, est une avancée dans la politique d’émiettement de la formation : l’individualisation de la formation. Si le 20ème siècle prônait la rationalité de l’apprenant, le 21ème siècle prône son émotion, l’homo sapiens s’enrichit de l’homo demens (Edgar Morin). Cela pose la controverse de l’apprenant individu versus l’apprenant personne. L’individu est un « homme unidimensionnel » (Herbert Marcuse, 1964) alors que la personne est polymorphe, certains disent postmoderne, avec ses propres motivations personnelles. Cela réintroduit la place de l’entreprise dans le travail d’organisation de la formation. Avoir une IA formative et performative, est une chose, encore faut-il donner envie à l’apprenant de l’utiliser. C’est le travail de l’entreprise de donner envie, de marketer la formation, d’érotiser la formation avec sa légitimité sociale. Comme quoi une technologie n’est pas hors du social, et c’est bien dans cette création des usages que l’entreprise saura faire de l’IA générative un avantage organisationnel pour la formation… pour le meilleur ou le pire.

Fait à Paris, les 14 mars 2023

@StephaneDIEB pour vos commentaires Twitter

Découvrez « 100 expériences scientifiques de la formation »

Achetez le nouveau livre indispensable pour profiter de la synthèse des fondements scientifiques des pratiques de la formation.