+33 6 74 52 84 16 contact@lmvi.eu

Comment l’arrivée de ChatGPT et des LLM a bouleversé mon métier d’ingénieur informatique.

L’émergence de ChatGPT et des grands modèles de langage (LLM) a littéralement transformé mon quotidien d’ingénieur informatique. Avec plus de 40 ans d’expérience, j’ai vu ces outils évoluer, passant de simples concepts prometteurs à des systèmes matures et incontournables.

Mon rôle a longtemps été centré sur la vision stratégique : encadrer et guider les jeunes ingénieurs, leur indiquer les directions à suivre et leur confier la mise en œuvre technique. Cela nécessitait une documentation rigoureuse, des directives précises, et une bonne dose de patience avant de voir les résultats.

Aujourd’hui, grâce à l’IA, je suis passé à une approche de co-travail. Désormais, je participe activement à la réalisation des projets : les idées prennent forme en temps réel, ce qui me permet d’itérer, corriger et approfondir au fil du processus.

En cette aube de 2025, ces outils révolutionnaires ont non seulement simplifié de nombreuses tâches, mais ils ont aussi ouvert la voie à des défis inattendus et captivants. Dans cet article, je partage avec vous comment ces innovations m’aident à gagner en efficacité, à résoudre des problèmes complexes et à explorer de nouvelles technologies.

PS : pour cet article, pas eu besoin de l’aide de mon copain Marius, car j’y parle surtout de ma propre expérience et de mon vécu.

Bonjour !

Je suis Jean-Marc HENRY, ingénieur ESI,  consultant IT/IS pour les entreprises depuis plus de 35 ans, et fondateur de LMVI Conseil.

À travers ce blog, je vous propose d’explorer ensemble tous les 15 jours les grands ou petits (!) sujets de l’informatique.

Ici, on parlera de sujets qui me servent quotidiennement et qui me tiennent à coeur, comme le Nocode, l’IA, l’IT, ou l’architecture logicielle et un peu WSO2.

D’ailleurs, je ne suis pas seul à rédiger ces billets !

Je suis accompagné de mon assistant IA prénommé Marius. C’est un bon pote d’Ollama et de ChatGPT (entre autres, car il a un sacré réseau !).

Il est assez secret et ne me dit pas tout sur la manière dont il m’aide à écrire mes articles. En revanche, je ne publie rien qui n’ait été validé par des sources sûres ou testé !

C’est parti, on vous embarque !

1. Une collaboration itérative transformée par ChatGPT.

Avant, rédiger un cahier des charges était une tâche structurée, mais parfois fastidieuse. Aujourd’hui, grâce à l’intelligence artificielle, cette étape est devenue beaucoup plus fluide et interactive. Je commence par décrire une idée ou un besoin, ChatGPT propose une solution, et, ensemble, au fil des itérations, on affine le projet. Cette dynamique est incroyablement stimulante ! On commence souvent par une version simple et générique, que l’on enrichit progressivement avec mes idées et les suggestions de ChatGPT.

Exemple concret : création d’une extension sur Google Chrome.

Pour le projet d’un client, je devais créer une extension Chrome capable d’envoyer les pages consultées par les utilisateurs à une API, afin d’analyser ces données dans une base. Voici comment s’est déroulé le processus :

  1. On a commencé par développer une extension initiale qui enregistrait simplement les informations dans un fichier local.
  2. Ensuite on a construit un backend et ajouté des couches de sécurité grâce à un API Manager et un Identity Provider.

Certes, j’avais une vision claire de l’objectif final, mais cette approche en étapes m’a permis d’apprendre beaucoup de choses : créer une extension Chrome, adapter les APIs, et renforcer les systèmes de sécurité.

Ce processus collaboratif ne m’a pas seulement permis d’atteindre mon but,  il m’a également fait grandir en compétences à travers une méthode créative et interactive pour aborder des projets pointus.

2. Des résolutions rapides, mais pas infaillibles.

Lorsque je rencontre un problème complexe, les grands modèles de langage (LLM) sont désormais mon premier recours, remplaçant souvent Google. Ils offrent une rapidité et une efficacité remarquables, mais ne sont pas infaillibles !
Il leur arrive parfois de fournir des solutions erronées ou incomplètes, et il arrive même que je me retrouve dans des boucles répétitives avec le même outil.

Ce qui fait toute la différence, c’est d’avoir accès à plusieurs modèles. Ils se complètent : l’un corrige l’autre, vice-versa. Dans de telles situations, je soumets le code à d’autres outils ou effectue moi-même des recherches supplémentaires our vérifier, valider et affiner les réponses obtenues. Cette approche multi-outils s’est imposée comme une stratégie indispensable pour garantir la précision et la qualité des réponses obtenues.

3. Un accès instantané à toutes les technologies.

Grâce à l’IA, j’ai la possibilité d’explorer rapidement des technologies ou des approches que je ne maîtrisais pas auparavant, en partant simplement d’une idée générale. Cette capacité à approfondir des sujets au fil de la conversation est à la fois captivante et exigeante. Elle demande un discernement constant pour éviter de se perdre dans des détails inutiles.

Ce qui me frappe le plus, c’est la richesse éducative offerte par ces nouveaux outils. Aucun concept ne leur est totalement inconnu, bien que des erreurs ou « hallucinations » arrivent parfois lorsque l’on plonge dans des précisions trop complexes — et j’en ai rencontré quelques mémorables ! Cependant, tant que l’on reste dans un cadre général, les LLM se montrent étonnamment fiables.

En tant qu’informaticien, je constate que ces outils offrent une grande flexibilité d’apprentissage. Il suffit de rebondir sur un mot ou un concept pour en explorer toutes les facettes. Cette approche, personnalisable à l’infini, renforce la rétention des connaissances et permet une expérience d’apprentissage unique.

Par exemple, tout au long de ma carrière, j’ai souvent croisé des environnements comme les IBM-I et AS400. Jusqu’à récemment, je m’étais toujours tenu à distance de leur complexité en m’appuyant sur des experts dédiés. Mais lors d’une mission pour un groupe basé dans les DOM-TOM, j’ai dû plonger moi-même dans leurs subtilités. Grâce aux LLM, j’ai pu acquérir rapidement les bases nécessaires, des fonctions spécifiques aux étapes critiques, comme la gestion des « transaction logs » lors des redémarrages hebdomadaires.

Cet accompagnement m’a permis de relever des défis complexes tout en gardant une approche structurée et efficace.

4. Un support omniprésent dans tous les langages.

Peu importe le langage ou l’environnement, les LLM me guident avec une aisance impressionnante. Que ce soit en Python, JavaScript, JavaBeans, Node.js, React, RPG, PostgreSQL, ou MySQL, ces outils sont d’une grande fiabilité. Ils permettent une exploration rapide et efficace, que ce soit pour transformer un langage en un autre, découvrir de nouvelles technologies, ou déployer des solutions complexes. Ils sont toujours disponibles, même pour des problématiques abstraites ou pointues.

Un exemple concret : la rédaction de requêtes SQL complexes avec plusieurs niveaux de jointures entre les tables.

Avant l’arrivée des LLM, je pensais que de telles requêtes seraient difficilement réalisables. Mais grâce à ces outils, c’est devenu possible ! Certes, elles ne fonctionnent pas toujours du premier coup, souvent à cause d’erreurs dans la base de données ou de malentendus dans les prompts. Cependant, en fournissant les messages d’erreur à l’outil, il identifie rapidement la source du problème et propose des corrections pertinentes.

Un autre aspect impressionnant des LLM est leur capacité à déboguer. Dans mon travail avec Java et ses outils connexes, les erreurs peuvent être déconcertantes de complexité. Un simple copier-coller du message d’erreur dans ChatGPT permet d’extraire les informations utiles et, la plupart du temps, de proposer une solution précise et directement applicable.

Autre exemple concret : mon travail avec WSO2 sur un environnement Java et PostgreSQL
Je devais transférer des données provenant de différents systèmes vers un Operational Data Hub (ODH) et j’ai rencontré un sacré défi : faire migrer des données provenant de différents systèmes vers cette base. Pour cela, j’ai conçu un système simple et fiable de CDC (Change Data Capture) directement dans PostgreSQL. Bien que WSO2 offre une extension Java pour intégrer les changements d’une table quasiment en temps réel, elle présentait une limite : la prise en charge des champs JSON de PostgreSQL. Avec l’aide de ChatGPT et Claude 3.5, nous avons surmonté cette contrainte, permettant d’inclure les JSON imbriqués. Ainsi, les transferts de données sont désormais parfaitement fonctionnels, bien qu’ils s’effectuent en XML — un format finalement plus propre et standardisé.

5. La sécurité, une priorité intégrée dans mes développements.

ChatGPT est une ressource précieuse pour implémenter des modèles de sécurité robustes dans mes projets. Par exemple, l’utilisation de JSON Web Tokens (JWT) permet de garantir une communication sécurisée entre le back-office (Node.js) et le front-end (React). En intégrant ces tokens, je m’assure que chaque échange d’informations est authentifié et protégé contre les attaques potentielles, offrant ainsi une sécurité renforcée.

Les LLM intègrent des modèles de développement récents et adoptent des méthodes modernes pour concevoir les processus. Cela rappelle l’utilisation d’un ERP, où les équipes internes de l’éditeur anticipent les nouvelles fonctionnalités et leur déploiement. De la même manière, les LLM jouent un rôle similaire en nous aidant à rester à jour, bien que cela puisse parfois se faire avec quelques mois de décalage.

Il y a quelques mois, lors d’une discussion avec un Lead Developer, celui-ci exprimait ses doutes : il estimait que les LLM n’intègraient pas toujours les dernières avancées technologiques, ce qui justifiait son choix d’embaucher régulièrement de jeunes développeurs.

Pourtant, je reste sceptique. Même ces derniers ne maîtrisent pas systématiquement les évolutions récentes de langage de JavaScript ou Python. De plus, en production, l’implémentation repose souvent sur des versions éprouvées plutôt que sur les outils les plus récents. À votre avis, combien d’équipes utilisent réellement la toute dernière version de Node.js en production ?

6. Résolution des problèmes liés à l’itération et à la gestion du code.

Lorsque l’on développe sous forme d’itérations, certains problèmes peuvent surgir :

  • le code initialement simple devient de plus en plus volumineux, dépassant le cadre du nombre de tokens, ou devenant illisible ;
  • ce même code manque souvent de documentation claire, rendant sa compréhension et son évolution compliquées.

Heureusement, grâce aux LLM comme ChatGPT, il devient facile de restructurer ce code. Ces modèles permettent de décomposer le code en fonctions ou modules bien distincts, qui s’assemblent et évoluent indépendamment les uns des autres, facilitant ainsi la gestion du projet.

Par exemple, j’ai trouvé sur internet une API ancienne qui permettait de convertir  le contenu d’une page Notion en texte HTML. Bien qu’utile, cette API était désuète car elle ne gérait pas certains cas spécifiques, comme l’intégration de blocs de code par langage, l’insertion d’images inline, ou leur stockage sur S3. J’ai donc commencé à développer un petit bout de programme, qui a rapidement fini par devenir volumineux. Pour le rendre plus gérable, j’ai dû découper ce programme en modules distincts, chacun traitant de problématiques précises.

Au départ, j’avais envisagé de confier cette tâche à des développeurs offshore, mais compte tenu du délai d’attente, j’ai finalement décidé de m’y atteler moi-même. En moins de 12 heures, tout était fonctionnel. Ensuite, avec l’aide des LLM, la création de documentation est devenue extrêmement simple, aussi bien pour les développeurs que pour les utilisateurs finaux.

7. Optimiser la documentation grâce à ChatGPT.

Dès mes premiers pas avec ChatGPT en tant que chef de projet ou consultant informatique, j’ai rapidement perçu l’opportunité d’améliorer la qualité et l’accessibilité des documentations. Mon objectif était non seulement de créer des contenus plus complets et plus faciles à explorer, mais aussi de permettre une recherche rapide et efficace au sein de ces documents.

Dans un premier temps, j’ai utilisé CrawlGPT pour automatiser la collecte et la structuration des informations. Cependant, j’ai vite constaté ses limites : cet outil permettait d’extraire des données d’un site à la fois, mais ne répondait pas à mon besoin d’agréger des données provenant de sources multiples.

Face à cela, j’ai décidé de créer un système adapté à mes besoins. Ce système repose sur une base de données centralisée dans laquelle je stocke des informations provenant de différents sites : documentations officielles, blogs techniques, erreurs recensées sur Stack Overflow, et bien d’autres ! Une fois compilées, ces données sont formatées et exportées sous forme de fichiers exploitables par un LLM dans un cadre RAG (Retrieval-Augmented Generation).

Ce processus m’a non seulement permis de structurer des connaissances précieuses, mais aussi d’améliorer ma compréhension et mes compétences sur une multitude de sujets techniques. Cette méthode d’agrégation et d’analyse représente un apport majeur de ChatGPT dans mon quotidien d’ingénieur informatique.

Le mot de la fin : l’impression que tout est possible.

L’arrivée des LLMs comme ChatGPT a véritablement redéfini mon métier d’ingénieur informatique. Je suis passé d’une approche linéaire et planifiée à une exploration interactive où chaque projet se construit en collaboration avec les outils.

Cette dynamique offre une immense liberté créative. J’ai souvent l’impression que tout est possible. L’excitation liée aux découvertes et aux réalisations rapides est palpable dans l’air, comme une satisfaction immédiate qui stimule l’envie de progresser toujours plus vite.

Cependant, cette efficacité peut également avoir un coût. Les contraintes, autrefois sources de réflexion approfondie et de structuration, tendent à s’estomper. Cette réduction des obstacles pousse à développer à la vitesse de la pensée, ce qui peut parfois occulter la nécessité de prendre du recul ou de prévoir les implications à long terme de certaines décisions techniques. Attention, donc, à bien rester le seul maître à bord !