Sortez-les learning datas du frigo !

par 21/09/2021Marketing, Pédagogie0 commentaires

Mick Levy vient d’écrire un livre intéressant sur les Big Data pour expliquer en quoi la data peut-elle servir dans la création de performance (https://www.amazon.fr/Sortez-vos-donn%C3%A9es-frigo-performante/dp/2100817051 ). Son message est contenu dans le titre « sortez les données du frigo ». Qu’est-ce que la data peut apporter à la formation ? De quoi parle-t-on ? Comment s’y prendre ?

Selon une étude IDC, 32 % des données de l’entreprise ont un traitement, même un traitement modeste, mais un traitement. Autrement dit, 68 % du patrimoine de données de l’entreprise n’ont aucun traitement. Si la data est l’or noir des entreprises, force est de constater qu’il y a gaspillage des ressources énergétiques de l’entreprise. Comment organiser une gestion écoresponsable des données, tout particulièrement dans le monde de la formation ?

1, Les 5 étapes du Big Data

Il existe 5 étapes dans la maturité de la gestion des données.

La première étape est celle de la donnée brute. La donnée existe, mais rien n’est fait pour que son traitement conduise à une exploitation. Autrement dit, 68 pour cent des données n’étant pas traitées, elles ne servent à rien à l’entreprise. Le premier travail des data scientists est d’être des chercheurs de données avant même toute exploitation.

La deuxième étape est la création d’un tableau de bord. Le tableau de bord permet de synthétiser les données et de choisir les données essentielles. Traditionnellement, l’exploitation est une simple historisation qui permet d’identifier l’évolution d’une année sur l’autre, ou d’une période sur l’autre. Un indicateur comme le budget de formation, consolidé ou non, permet de connaître son évolution tendancielle et/ou son scoring par rapport aux entreprises de même profil dans le secteur. Sans comparatif, il est difficile de donner un sens à une réduction : une baisse de 10 % est en terme d’efficience un bon résultat, « faire pareil avec moins » mais si tout le monde fait moins 20 % le résultat devient modeste.

Ces deux premières étapes sont très classiques dans la gestion de la donnée, elles ne font pas intervenir une politique de la data, au sens Big Data. Les trois autres ouvrent des perspectives particulières.

La troisième étape est celle du diagnostic. Elle consiste à partir une analyse multifactorielle de comprendre des déterminants des indicateurs que l’on veut analyser. Les analyses traditionnelles de la statistique permet de mesurer les variances et la co-variances dans la variation des données. Le Machine learning ouvre de nouvelles perspectives, il devient possible de brasser beaucoup plus de corrélation et de mettre en évidence des explications non traditionnelles qui sortent des liens de causalité usuels. Au profilage standard des apprenants, le Big data permet tout à la fois de développer une analyse plus fine et surtout de personnaliser les modalités d’apprentissage de chacun en tenant compte de beaucoup plus de déterminant. La pédagogie s’en trouve d’autant plus performante.

La quatrième étape, qui est une conséquence de la troisième, est d’utiliser une projection des données. C’est la fameuse droite de régression multifactorielle qui a fait le bonheur de nos cours de statistiques. Outre la vitesse de calcul, qu’est-ce qui change avec la politique de Big data ? C’est le fait de raisonner non pas seulement à partir de l’historique, mais principalement à partir du potentiel. Si l’on prend le meilleur formateur de l’entreprise, quels que soit les critères, comparativement avec la méthode de scoring, il est le maximum que l’on puisse atteindre, mais est-ce le maximum que lui puisse atteindre ? Autrement dit, il se peut qu’il puisse aller beaucoup plus loin, non pas comparativement aux autres, mais comparativement au potentiel qu’il représente. Il s’agit grâce à l’étape trois, de déterminer le potentiel de la personne à partir des déterminants identifiés et de comparer sa situation avec son potentiel personnel. Cela ouvre des perspectives assez extraordinaires dans la personnalisation.

La cinquième, et dernière étape, est celle du prescriptif. C’est la machine qui propose des solutions qui ont été calculées sur le modèle de potentiel par l’Intelligence Artificielle sans l’intervention préalable de l’homme. La machine recherche des solutions qu’elle soumet à la décision du manager. C’est l’homme qui décide, mais sur proposition de la machine. Par exemple, pour l’entretien professionnel, la machine propose des possibilités de scénari non conventionnelles qui peut correspondre mieux aux attentes du collaborateur. Au final, c’est bien le collaborateur et le manager qui choisissent, mais sur un domaine des possibles plus large. Selon les tests de Mick Levy, les retours d’expériences montrent un taux d’acceptation et de satisfaction des managers de plus de 90 %. Mick Levy parle d’intelligence artificielle augmentée par opposition à l’homme augmenté. La machine augmentée de l’homme.

2, Que faire de ces 5 étapes ?

La première remarque est que cette notion de Big Data s’inscrit parfaitement dans l’Organisation Scientifique de la Formation. L’OSF prône un processus de rationalisation de l’évaluation des connaissances et des compétences, le Big Data ne fait que rationaliser à plus grande échelle. Il y a donc une continuité culturelle de l’organisation. Un modèle d’évaluation comme celui de Kirk Patrick qui souffrait d’opérationnalité en général et de difficultés d’application dans un monde en disruption retrouve une actualité grâce au Big data qui propose un modèle qui s’adapte en temps réel grâce aux puissances de calcul. Serait-ce une renaissance de l’Organisation Scientifique par le Big data ?

Le Big data n’est pas incompatible avec la réglementation générale de la protection des données (RGPD). La réglementation européenne insiste sur la transparence dans l’usage des données et dans l’engagement des collaborateurs. Si pour la première partie, il suffit d’avoir des algorithmes ouverts et d’avoir un interlocuteur pour expliquer les usages, la seconde partie est plus sensible, car il s’agit d’un nouveau contrat social qu’il faudra définir entre l’individu et l’entreprise. Comme tout compromis, il s’agit de montrer en quoi cela va augmenter la proposition de valeur pour le collaborateur. Autrement dit, il faudra marketer le projet pour favoriser l’adhésion.

Le Big data est une courbe d’apprentissage. Il s’agit d’une politique de transformation qui doit être conduite comme telle par les entreprises en tenant compte des cultures plus ou moins collaboratives de chaque organisation. Mick Levy propose des moments d’imprégnation avec des « datathons ». Ce sont des moments d’acculturation où l’on désacralise la data. Il s’agit de faire comprendre à l’ensemble du personnel que la data est ce que l’on veut bien en faire, et donc de les interroger sur les usages possibles de cette technique. Il s’agit par exemple de reprendre les datas existantes et de voir leurs usages. Avec le confinement, toutes les entreprises se sont lancées dans les classes virtuelles, cela donne une masse de datas inexploitées, c’est intéressant pour demander aux apprenants les usages possibles de toutes ces données. Les apprenants impliqués dans le datathinking sont plus favorable à l’acceptabilité s’ils ont participé à la définition des usages et de la performance qui s’en suit.

La vraie problématique que pose le Big Data, en formation comme ailleurs, est une question de gouvernance des entreprises. L’outil est extraordinaire, mais il n’est pas neutre. Il introduit une notion de pouvoir pour celui qui pilotera la donnée. Le Big data permet de mieux connaître chaque collaborateur, mieux qu’il ne se connaît lui-même. Cela n’est pas sans poser quelques questions. Et comme le soulignait en 2007, Pierre Cahuc et Yann Algan, nous sommes entrée dans une Société de la défiance, la méfiance est socialement légitime. Reste aux entreprises de mettre en place une dynamique pour construire une société de la confiance. Si le Big data est imposé par le haut, il aura du mal à s’imposer, alors que s’il est partagé, il permettra de développer une intelligence collective de la data. Le responsable de formation a une responsabilité d’organiser la culture partagée de la data autour des problématiques de connaissances et de compétences… et çà tombe bien puisque le maître-mot est de remettre l’apprenant au centre de la formation, pourquoi pas au centre de la learning data ?

Fait à Paris le 21 septembre 2021

@StephaneDiebold