Accueil IA-Intelligence Artificiellle Prompt engineer, le nouveau métier de l’IA

Prompt engineer, le nouveau métier de l’IA

Des nouveaux métiers liés aux Large Language Models (LLM) comme ChatGPT émergent… Connaissez-vous l’ingénieur prompt ? Stéphane Roder, président du cabinet de conseil en stratégie data et intelligence artificielle AI Builders, nous en parle.

ChatGPT de Open AI et d’autres Large Language Models (LLM), modèles d’intelligence artificielle comme Paradigm de la société française Lighton, font émerger le besoin en nouvelles compétences.

« Les LLM ont appris le sens commun avec le volume de données qu’ils ont traité : 500 milliards de mots, plusieurs milliards de phrases, explique Stéphane Roder, président du cabinet de conseil en stratégie data et intelligence artificielle AI Builders. Ils sont capables d’établir des classifications – par exemple de catégoriser le type de document, le type de contenu d’un document – de comprendre le contenu, de réaliser des synthèses…
L’essentiel est de savoir leur poser les bonnes questions pour les faire inférer – passer de règle en règle – sachant ce qu’on souhaite comme traitement en sortie. C’est une vraie compétence à développer. Les règles d’inférence sont de la logique. Les compétences à acquérir sont donc avant tout la compréhension logique d’un outil et ensuite de bonnes connaissances métier : pas besoin d’être ingénieur. L’expérience permet d’avoir des astuces pour les traitements complexes. Pas besoin d’être data scientist non plus ni de savoir coder. C’est du no-code, toutefois il faut être logicien pour bien analyser comment le logiciel a été entraîné et donc sur quelles règles il se fonde. Il existe déjà des « prompt engineers » chez les fournisseurs de solutions de LLM.
Il n’existe pas encore vraiment de formation. Certes, LightOn propose déjà quelques cours. »

« Les compétences à acquérir sont avant tout la compréhension logique d’un outil et ensuite de bonnes connaissances métier. »

Stéphane Roder donne des cours à l’Essec sur la création de business en ligne, et parle du potentiel apporté par l’IA générative sur ces activités commerciales : « Mes étudiants comprennent qu’il y a beaucoup d’opportunités. La vraie révolution aujourd’hui, c’est l’IA, pas le métavers, dont le retour sur investissement est beaucoup plus faible. L’IA nous fait entrer dans une nouvelle phase d’assistance aux métiers. Dans le cas des LLM, grâce à leur capacité de traitement de documents non structurés, ils peuvent notamment servir à massifier des achats. La loi de Pareto, applicable aux achats, montre que les 80 % des volumes d’achats consacrés à l’acquisition de nombreuses références en petite quantité, pourraient bénéficier de rapprochements automatisés grâce à l’IA, et générer des gains potentiels.

« La vraie révolution aujourd’hui, c’est l’IA, pas le métavers. »

Plus largement, les cas d’usage des LLM qui vont se développer vont servir en grande majorité dans le secteur tertiaire, dans les fonctions support qui ont une structure de coûts importante liée au traitements des documents : sourcing de CV, processus appel d’offres (création de cahier des charges, synthèse…), facturation, etc. Les fonctions tertiaires comme les ressources humaines, la comptabilité ou les achats vont ainsi largement gagner en productivité. Le prompt engineering va être embarqué dans les applications métiers. Il va donc falloir pour révolutionner l’édition logicielle liées aux métiers de bons prompts engineers pour arriver à automatiser les processus de façon massifiée. »

« Pour révolutionner l’édition logicielle liées aux métiers, il va falloir de bons prompts engineers pour arriver à automatiser les processus de façon massifiée. »

De nouveaux métiers liés à l’IA

D’autres nouveaux métiers sont générés par le développement des modèles linguistiques d’IA. Des professionnels, plus techniques que les prompt engineers, se chargent de filtrer les datasets (les doublons, les contenus mal écrits…) afin d’améliorer la qualité des jeux de données et ainsi optimiser l’entraînement du modèle.

« Open AI a dépensé plusieurs milliards de dollars pour entraîner ChatGPT, fait remarquer M. Roder. Aujourd’hui des modèles open source qui se servent de la data science, du prompt engineering et de l’open source sont développés à prix bas. Ainsi l’université de Stanford vient de mettre au point son modèle Alpaca, qui a coûté 600 dollars à entraîner. Les modèles open source vont aider à créer un nouvel écosystème de l’intelligence artificielle : on a besoin de professionnels capables d’entraîner des modèles de deep learning avec des LLM. »