Aller au contenu
Accueil / IA génératives : coder sans développeurs ?

IA génératives : coder sans développeurs ?

Anne Kerdit

Illustration : Anne Kerdi est un personnage virtuel qui promeut la Bretagne à travers des photos, des images ou des textes générés par IA. Elle a été imaginée par un Finistérien de 30 ans. Son compte Instagram créé en mars 2023 la présente comme « Intelligence Artificielle Bretonne ».

(Temps de lecture : 40 minutes)

Depuis la mi-2022 et la sortie grand public de Midjourney (juillet), et surtout de chatGPT d’OpenAI (novembre), les IA génératives ( intelligences artificielles ) occupent une place prépondérante dans l’actualité IT (Information Technology) et font même des incursions dans l’actualité grand public.

Au sommaire :

Toutes les GenAI ne reposent pas sur le LLM GPT. C’est le cas de ChatGPT, de Bing chat, de Copilot ou de Codeium, mais Google Bard, Genesis, SGE, Gemini, Claude 2 ou Falcon reposent sur d’autres LLM.

Trois définitions

L’intelligence artificielle (IA) est un processus d’imitation de l’intelligence humaine qui repose sur la création et l’application d’algorithmes exécutés dans un environnement informatique dynamique. Pour se rapprocher le plus possible du comportement humain, l’intelligence artificielle a besoin d’une quantité de données et d’une capacité de traitement élevées. Les systèmes de reconnaissance faciale reposent sur des IA.

L’intelligence artificielle générative ou GenAI (Generative AI) est un type de système d’intelligence artificielle capable de générer du texte, des images ou d’autres médias en réponse à des invites (ou prompts en anglais). L’IA générative peut être unimodale ou multimodale ; les systèmes unimodaux n’acceptent qu’un seul type d’entrée (par exemple, du texte), tandis que les systèmes multimodaux peuvent accepter plusieurs types d’entrée (par exemple, du texte et des images). Midjourney est une IA générative.

L’intelligence artificielle conversationnelle repose sur le Machine Learning et le traitement du langage naturel pour recueillir et analyser les langages, les comprendre, puis simuler des réponses humaines. Comme elle génère du texte, un IA conversationnelle est un type de GenAI. C’est le cas de chatGPT.

1- La différence avec Deep Blue et AlphaGo

1.1- IA spécialisées…

Jusqu’alors, Intelligences Artificielles et Big data ne marchaient main dans la main que pour améliorer des services sur les grandes plateformes d’internet, sans forcément que le grand public en ait conscience (comme le célèbre algorithme de recommandation de Netflix). Plus confidentielles, il existe également de nombreuses IA spécialisées dans des domaines très particuliers devant gérer de grandes quantités de données :

Toutes ces Intelligences Artificielles, ne savent faire qu’une chose, exactement comme Deep Blue qui ne savait que jouer aux échecs, ou AlphaGo qu’au jeu de go, et qui ont battu les champions humains respectivement en 1997 et 2017.

Le champion du monde d’échecs Garry Kasparov lors de la sixième et dernière partie de son match contre l’ordinateur Deep Blue d’IBM le 11 mai 1997

1.2- … vs IA génératives

Généralistes

A contrario, les IA génératives d’aujourd’hui n’ont pas une spécialité particulière, et peuvent être utilisées dans quantités de domaines indifféremment :

Multimodales

De plus, elles peuvent générer non seulement du texte, mais aussi des images et bientôt des vidéos et du son. Elles commencent aussi à être branchées sur d’autres IA, capables de générer de la voix :

Je sais parler 6 langues différentes – Léo – TechMaker
Impactantes

Par conséquent, un grand nombre de professions non directement concernées par les big data est susceptible d’être impacté par les IA conversationnelles… même celle de développeur informatique !

En effet, dans une étude de Microsoft menée en février et mars 2023,

  • 31 % des chefs d’entreprise ont déclaré qu’ils considéraient l’augmentation de la productivité des employés comme ce qu’ils apprécieraient le plus dans l’IA sur le lieu de travail.
  • 29% ont mentionné aider les employés avec des tâches nécessaires mais répétitives/banales,
  • et 25% ont déclaré éliminer le temps passé par les employés sur des activités à faible valeur.
  • 16% ont déclaré réduire leurs effectifs.

↑ — Revenir au sommaire

2- Intelligence artificielle et emploi

Passé le premier effet Waouh des prouesses des deux outils, puis les poncifs sur la triche à l’école, certains médias se sont inquiétés des implications des Intelligences Artificielles sur le futur, en premier lieu sur les fake news de haute volée (deep fakes), mais aussi plus largement sur l’emploi.

  • IBM avait annoncé en début d’année le licenciement de 5000 salariés, auquel s’ajoute un gel des recrutements en RH sur 7800 postes sur des tâches pouvant être réalisées par les Intelligences Artificielles. Le groupe a néanmoins embauché 7000 développeurs et commerciaux au premier trimestre. Il compte un total de 260.000 salariés.
  • Selon le patron de Springer, l’automatisation de la production d’articles grâce à l’intelligence artificielle va révolutionner le journalisme, qu’elle va pouvoir «soutenir» ou même «remplacer».
  • Le géant britannique des télécommunications BT Group a annoncé en dernier lieu qu’il supprimait 55 000 emplois et que l’IA pourrait en remplacer 10 000 d’ici 2030.
  • La banque d’affaires Goldman Sachs explique que les IA génératives pourraient faire disparaître 300 millions d’emplois dans le monde dans un futur proche. (En même temps ils n’ont pas vu venir la crise de 2008 et encensaient Madoff et les subprimes encore peu de temps avant la faillite de Lehman Brothers.)
  • « The Future of Employment » des chercheurs Michael Osborne et Carl Benedikt Frey publié en 2013 avait fait grand bruit : il déterminait que 47 % des emplois aux États-Unis étaient susceptibles d’être remplacés avant 2025 par l’automatisation. Des proportions similaires étaient mentionnées pour la France.
217 personnes licenciées et remplacées par une IA – Léo – TechMaker

↑ — Revenir au sommaire

3- Le problème des fuites de données des IA génératives

Les médias mainstream s’en sont moins fait l’écho, mais il faut aussi se méfier des données qu’on envoie à chatGPT et aux autres IA.

3.1- Les fuites

ChatGPT a été temporairement bloqué pour les questions de données personnelle en Italie (RGPD). C’était fondé quand on voit la mésaventure de Samsung qui a vu des données confidentielles fuiter dans les réponses que chatGPT a donné… à ses concurrents ! Ensuite cela a été le cas de Bard, dont des conversations d’utilisateurs se sont retrouvées publiées… sur Google. Le moteur de recherche a en effet indexé pendant un certain temps des conversations dont les utilisateurs avaient créé un lien de partage.

Pour remédier à ce problème qui conduit 82% des entreprises à interdire son usage, ChatGPT Plus a ajouté un mode privé. OpenAI a ainsi mis à jour ChatGPT pour inclure l’option de refuser l’enregistrement de l’historique de chat par le chatbot ou l’utilisation des données utilisateur pour l’entraînement du programme (ChatGPT Enterprise). Bing Chat a lui aussi une offre payante avec la même option. Google a de son côté fixé son problème d’indexation.

Qu’en est-il des concurrents ? Copilot, Codeium, Cody, Llama 2 de Meta, Claude 2… Je n’ai trouvé l’information pour aucun d’entre eux.

3.2- Le vol

De plus, cette limitation d’enregistrement d’OpenAI peut limiter les fuites, mais pas le vol. Ainsi, 100 000 comptes chatGPT ont fuité avec des mots de passe et login, siphonnés par des pirates. Cependant, c’est un peu le risque pour toutes les applications en ligne.

3.3- L’espionnage économique

Enfin, hors fuites et hors piratage, il faut être conscient qu’on confie des données aux sociétés propriétaires des IA, qui peuvent en faire ce qu’elles veulent. Or depuis Edward Snowden, on sait très bien que la NSA peut mettre son nez à peu près partout sur internet. Et côté chinois, les liens entre les BATX et le parti ne sont plus à démontrer non plus.

Pour ces trois raisons, il faut-être très vigilant sur les données qu’on offre sur un plateau aux sociétés d’intelligence artificielles.

↑ — Revenir au sommaire

4- Faut-il ralentir sur l’IA ?

4.1- De graves risques pour la société ?

4.1.1- Une lettre ouverte

La Chine donne un avant-goût de ce qui nous attend avec l’intelligence artificielle :

L’intelligence artificielle pèse en Chine déjà 20 milliards d’euros, un chiffre qui pourrait plus que doubler d’ici deux ans. Pékin ambitionne de dépasser les États-Unis, pour devenir numéro un mondial dans ce domaine, d’ici 2030. Cette technologie, qui simule l’intelligence humaine, est capable de générer des textes, des images, des vidéos et des créations originales dans le domaine de l’art ou du design par exemple. Son arrivée bouleverse le marché du travail et même les relations humaines.

La Chine sous l’emprise de l’intelligence artificielle – France 24

« Les systèmes d’IA dotés d’une intelligence capable de concurrencer celle de l’homme posent de graves risques pour la société »,

Suspendre les expériences géantes d’IA : une lettre ouverte

indique une lettre ouverte publiée en avril 2023 par plus de 1000 signataires liés à l’IA, parmi lesquels Elon Musk, qui a quitté l’aventure OpenAI en 2018 et qui tout en signant cette lettre, en bon roi des trolls, était en train d’acheter de la mémoire vidéo en masse pour monter sa propre IA : pas moins de 10000 GPU ! Ceci dit, les autres experts de l’IA signataires étaient sincères et appelaient vraiment à ralentir.

A défaut de réellement déboucher sur un moratoire, impensable dans un contexte de compétition économique et alors que Google préparait sa riposte avec Bard, cette lettre ouverte a eu le mérite de susciter le débat.

4.1.2- Certaines IA posent question

Car oui, certaines IA posent en effet question dès aujourd’hui, comme le montre Science4All :

  • Les IA dans les armes autonomes, c’est un problème ;
  • L’IA de désinformation à grande échelle des citoyens en Inde, c’est un problème ;
  • L’IA Aladdin de Blackrock qui gère la majeure partie de la finance mondiale, c’est un problème ;
Des IA terrifiantes – Science4All

On pourrait ajouter :

Mais il ne s’agit pas là d’IA génératives, ce sont d’autres types d’IA. En revanche, qu’une IA générative soit détournée par le gouvernement chinois pour à la fois surveiller et endoctriner sa population, c’est un problème aussi. Il faudrait donc de la régulation. Mais comment réguler les agissements de la Chine, de l’Inde, de Blackrock, des marchands d’armes, des JO ? Pas simple.

↑ — Revenir au sommaire

4.2- Réguler les IA génératives ?

4.2.1- Un problème de souveraineté

Vers une guerre froide de l’IA ?

Le principal problème que posent les IA conversationnelles, c’est le modèle de société et les valeurs sous-jacentes qu’elles peuvent véhiculer. Cependant c’est la même problématique qu’avec les algorithmes des GAFAM, les séries de Netflix et Disney +, ou les blockbusters hollywoodiens. Or c’est idem côté chinois. Résultat : demandez comment a démarré la Covid, quel est le statut de Taiwan ou des renseignements sur le massacre de Tian’anmen à une IA américaine et à une IA chinoise : vous aurez des réponses sensiblement différentes ! Dans le même temps, quel modèle avons nous pour promouvoir une vision européenne du monde? Rien, nada, le néant.

USA, Chine, Europe

Il existe un adage dans le monde du numérique, lancé par la patronne des patrons italiens (équivalent du MEDEF en France) : « Lorsqu’il y a une innovation,

  • les Américains en font un commerce
  • les Chinois une copie [ce n’est plus tout à fait vrai : Les super applications chinoises WeChat ou Grab n’ont pas d’équivalent en Occident. Et fort heureusement, la Grande Muraille Numérique et le système de crédit social non plus… pour l’instant du moins]
  • les Européens un règlement [RGPD, DMA, DSA, futur AI Act, etc] »
France

Quand-à la France…

« Je plaide donc [pour] que nous nous fixions comme objectif d’avoir un OpenAI européen sous cinq ans, avec les calculateurs, les scientifiques et les algorithmes nécessaires. »

Bruno Le Maire, Ministre de l’Économie, des Finances et de la Souveraineté industrielle et numérique

… On se demande si la French Tech et la startup Nation avec leurs anglicismes omniprésents n’ont pas une part de poudre aux yeux, tant les décideurs français sont à la ramasse sur le numérique (et ce depuis le mulot de Jacques Chirac, en 1996). Les gouvernements successifs ont quand même :

Pour notre souveraineté numérique, on repassera.

« Joint the French Tech« , « choose France », « French Tech Health20 », « French Tech Rise »…

Heureusement que Mistral AI ne se fie pas aux propos du Ministre de la Souveraineté numérique pour son développement.

4.2.2- Des biais dès la conception

Le job des IA conversationnelles, c’est de prédire le mot suivant le plus probable dans un contexte donné.

Simple, basique : une IA reprend tous les travers du fonds qui a servi à leur apprentissage. La composition de ce fonds est ainsi un 1er biais : on se souvient de Tay, le chatbot de Microsoft en 2016, qui s’est montré raciste, vulgaire et négationniste en seulement 24h de présence sur les réseaux sociaux (Twitter, Snapchat, Kik ou encore GroupMe).

C’est pourquoi l’IA est ensuite retravaillée pour tenir un certain discours et en éviter d’autres (2e biais). De même que la nudité d’une poitrine féminine ne passe pas chez Facebook, certaines choses ne passent pas chez chatGPT.

4.2.3- Le sort des travailleurs pauvres qui « corrigent » les IA

Ainsi, comme chez Facebook, l’IA est retravaillée par des humains qui doivent étiqueter tous les contenus offensants ou choquants. Ils passent donc toutes leurs journées à regarder attentivement des horreurs, risquant leur santé mentale en plus d’être payés une misère, pour que les utilisateurs finaux n’aient pas à supporter ces horreurs. C’est la face sombre de ChatGPT.

4.2.4- Les hallucinations des IA génératives

D’autre part, les intelligences artificielles génératives ont la fâcheuse habitude de toujours vouloir apporter une réponse, même quand elles n’ont pas les bonnes informations. Ceci a créé un phénomène baptisé « hallucinations », où les chatbots donnent des mauvaises réponses qui semblent parfaitement plausibles. Il y a donc un important travail d’éducation à faire auprès des utilisateurs. Pour éviter de colporter des aberrations, il faut ainsi toujours vérifier que la réponse de notre chatbot favori n’est pas le fruit d’une hallucination.

Lors de la présentation de Bard, le chatbot a affirmé calmement que le télescope James Webb avait pris la toute première photo d’une exoplanète… Sauf que c’est le Très Grand Télescope de l’ESO qui pris la première exoplanète en photo en 2004, soit 18 ans auparavant !

4.2.5- L’épineuse question des droits d’auteur

Fin 2021, lorsque Microsoft a lancé GitHub Copilot, un assistant payant pour écrire du code, nourri de tout ce qui était sur la plateforme Github (également propriété de Microsoft), des développeurs se sont indignés que leur code mis en ligne en open source, puisse servir à lancer un service payant.

Le logo de GitHub Copilot

L’interrogation s’est ensuite étendue à l’ensemble des fonds qui ont servi à l’apprentissage des IA généralistes (textes, sons, images…) Mais la question est complexe :

D’un côté, il y a la théorie : toute atteinte à un droit de propriété intellectuelle peut être attaquée et critiquée en justice. Mais, de l’autre, il y a la pratique: il est parfois difficile de mettre en œuvre ses droits […] Comment peut-on démontrer que l’IA a violé les droits d’un tiers ? 

L’IA générative va entraîner des considérations juridiques nouvelles sur le droit d’auteur – L’Usine Digitale

La question des droits d’auteur se pose aussi pour les utilisateurs de ces outils. Sont-ils propriétaires de leurs créations ?

Pour l’instant, ces questions juridiques concernant le droit d’auteur vs IA sont en gestation. Plusieurs plaintes ont été déposées, notamment aux Etats-Unis. Lorsque les jugements auront été prononcés, on aura un début de jurisprudence qui nous permettra peut-être d’y voir plus clair.

4.2.6- Le coût énergétique des IA

Enfin, le coût énergétique des IA pose également un vrai problème. Il y a le temps de l’apprentissage pendant quelques mois qui pèse pour 40 % de l’énergie réellement consommée par le modèle d’IA.

Le désormais célèbre modèle d’IA d’OpenAI, GPT-3, aurait à lui seul nécessité quelque 1 287 gigawattheures pour boucler son apprentissage, une consommation comparable à celle de 120 foyers américains sur une année, selon des chercheurs de Google et de l’Université de Berkeley. Soit ce que consomment 110 voitures en un an, ou 502 tonnes d’émissions de carbone.

ChatGPT & co : pourquoi le coût énergétique de l’IA pose un vrai problème – Clubic

Les 60% restants correspondent ensuite à l’usage en production, quand il faut répondre aux questions des internautes, ce qui consomme beaucoup plus d’énergie qu’une requête sur un moteur de recherche par exemple, ou l’envoi de « mails rigolos« . Or plus le modèle présente de paramètres, plus il fait tourner de GPU, plus il gonfle la consommation d’énergie des data centers et donc in fine la production de gaz à effet de serre. Cependant, il faut aussi garder à l’esprit que les autres usages gourmands du numérique sont les visioconférences en télétravail, le streaming vidéo… Et surtout la fabrication des appareils informatiques !

« Sandra predicts the end of the world, but no one care. »
Visuel pour un opéra au Munst, à Bruxelles, créé avec Dall-e

4.2.7- Des initiatives internationales pour réguler les intelligences artificielles

Depuis 2021 en UE, un règlement sur l’IA est en négociations dans le but « de mieux réguler les pratiques les plus risquées et de favoriser l’innovation en Europe« . Il est encore trop tôt pour savoir ce qui en sortira.

L’UNESCO a publié une Recommandation sur l’éthique de l’intelligence artificielle, adoptée la même année par les 193 États membres de l’Organisation (43 pages).

Enfin, le premier sommet consacré à la sécurité sur l’intelligence artificielle (IA) s’est tenu près de Londres, les 1er et 2 novembre 2023. Les dirigeants internationaux se sont entendus sur une déclaration commune, et ont décidé la création d’un équivalent du GIEC pour l’IA :

La Chine, les Etats-Unis, l’UE et une vingtaine d’autres pays ont décidé de collaborer pour veiller à ce que l’intelligence artificielle soit utilisée d’une manière ‘centrée sur l’homme, digne de confiance et responsable’, dans le cadre du premier engagement mondial de ce type.

L’Union européenne, les Etats-Unis et la Chine signent une première déclaration mondiale sur les risques de l’intelligence artificielle – Toute l’Europe

↑ — Revenir au sommaire

4.3- L’explosion des IA génératives

Pour autant, non seulement les outils d’IA générative se multiplient, mais l’IA se glisse aussi dans les outils qu’on connaît déjà. Quelques exemples parmi d’autres : TikTok, Snapchat, Photoshop, Canva, FlutterFlow, WordPress, Shopify, Spotify, les navigateurs Arc, Brave et Opera, ou encore l’outil No Code Notion, mais aussi tous les outils bureautiques de Microsoft d’une part et de Google d’autre part.

En réalité, avec Search Generative Experience, pas encore disponible en France et plus tard Gemini, c’est même tout l’écosystème de Google qui va être irrigué d’IA. Idem chez Microsoft avec Copilot qui commence à être intégré à Windows 11 (sauf dans l’UE #DMA), et sera au centre de Windows 12.

Le nouveau Google Search Generative Experience est bluffant
Vidéo de présentation de Microsoft Copilot sur Windows 11

Sur le web, on trouve des tonnes de vidéos du type Les 14 Outils IA à connaître absolument en 2023. Faut-il vraiment les connaître tous ? Evidemment, non. Comme pour n’importe quel outil, IA ou pas IA, il suffit de savoir que ça existe et de n’utiliser que ceux qui correspondent vraiment à nos besoins.

En tout état de cause, le mouvement semble néanmoins bel et bien irréversible.

↑ — Revenir au sommaire

5- La théorie de la destruction créatrice de Joseph Schumpeter

Au delà du grand remplacement de l’humain par une AI générale à long terme, ces dernières vont dans l’immédiat provoquer des gains de productivité. Or qui dit gains de productivité dit besoin de moins de personnes pour une même quantité de travail, donc licenciements. Ceux qui resteront en poste vont en faire plus en moins de temps, les autres se retrouveront sur la touche.

5.1- La destruction créatrice

Mais selon la théorie de la destruction créatrice de Joseph Schumpeter, de nouveaux métiers vont émerger en parallèle et donc de nouveaux emplois sur le temps long. Un premier exemple : Prompt Engineer.

Théorisée par Joseph Schumpeter, la destruction créatrice est un processus de disparition d’activités productives obsolètes qui sont remplacées par des activités nouvelles du fait des innovations réalisées par l’entrepreneur innovateur. Celui-ci est une sorte de « capital-risqueur » dont la prise de risques, récompensée par le profit, lui donne un rôle central dans cette dynamique. Les grappes d’innovations, discontinues et interdépendantes, bouleversent les méthodes de production, l’organisation du travail, les spécialisations, les produits et les marchés. Elles révolutionnent l’économie et la société par leurs impacts à la fois destructeurs et créateurs d’activités et d’emplois.

Toutefois [..], l’entrepreneur et le capitalisme sont condamnés en raison du développement de grandes entreprises dirigées par des gestionnaires et non plus par des « entrepreneurs innovateurs ».

Dico de l’éco – Destruction créatrice

Il y a donc deux questions.

  • D’une part comment accompagner ceux qui vont garder leur métier pour le faire évoluer,
  • d’autre part comment détecter et faire émerger ces nouveaux métiers qui pourraient regonfler le marché de l’emploi.

A terme, selon Schumpeter, tout va s’équilibrer. Oui, mais dans l’intervalle, il va y avoir un moment où les destructions d’emploi liées aux gains de productivité seront plus importantes que les créations induites par les nouveaux métiers. Comment gérer cet intervalle avant l’arrivée du nouvel équilibre?

5.2- L’IA qui cache la forêt

Question subsidiaire : Est-ce que certaines entreprises ne vont pas prendre l’IA comme prétexte pour faire encore plus de profits ? On apprend en effet que les 217 personnes licenciées et remplacées par une IA, évoquées entre autres par Léo TechMaker ci-dessus… l’ont été par un fonds vautour dont la spécialité est d’acheter une entreprise, de la « restructurer » avant de la revendre avec une plus-value. En outre, une partie du personnel a été remplacée par du personnel en Inde. On peut dire ici que c’est l’IA qui cache la forêt !

Il y a alors lieu de se demander si le compte y est vraiment, quand des emplois sont détruits en France, tandis que les nouveaux métiers promis par Schumpeter émergent… en Inde !

↑ — Revenir au sommaire

6- Le cas du développement d’applications

92% des développeurs basés aux Etats-Unis ont déjà recours à des outils de codage à base d’IA. 70% des répondants à cette même étude estiment que ces solutions leur fournissent un réel avantage.

En tant que développeur web je me demande comment mon métier va évoluer alors que je ne suis encore que junior. Comment faire évoluer ma roadmap de formation pour garder mon métier?

6.1- Expériences de dev confirmés avec les IA

Le web pullule de développeurs qui tentent de comparer leur pratiques avec et sans IA, pour savoir ce qu’il peuvent attendre de ce nouvel outil. Parfaitement Web, Grafikart, Benjamin Code… La plupart concluent qu’il faut être codeur pour poser les bonnes question à l’IA et comprendre ses réponses. En outre, il est souvent plus long et stressant d’ajuster sa demande avec le prompt, que de coder directement soi-même. Enfin, les suggestions de code incessantes peuvent vous déconcentrer.

Parmi les expériences les plus intéressantes, Micode a demandé à trois candidats de créer un QCM en 2 heures. Le premier est un développeur web senior connu (Benjamin Code), le second un spécialiste en IA qui n’a jamais codé un site web, le troisième a fait une école de commerce mais n’a jamais codé de sa vie. Pour cette épreuve, les trois ont accès à l’IA de leur choix.

Les trois arriveront au bout du challenge (oui, même celui qui n’a jamais codé). Mais ce qui ressort de ce test, c’est que l’IA est surtout forte pour démarrer un projet. Ensuite, à mesure qu’on ajoute des features, c’est de plus en plus laborieux, à tel point que le non codeur a du finir par essayer de comprendre son code (et donc commencer à apprendre à coder).

Micode a demandé à trois candidats de créer un QCM en 2 heures avec l’IA de leur choix

↑ — Revenir au sommaire

6.2- Un développeur junior doit-il utiliser de l’IA ?

Melvynx déconstruit le mythe selon lequel les débutants devraient éviter l’intelligence artificielle. Il explique les raisons pour lesquelles cette croyance est erronée, à condition d’utiliser l’IA de manière intelligente.

Melvynx – https://youtu.be/GMbypEMDVZo

Néanmoins, Mike Codeur ajoute qu’un dev junior ou débutant doit utiliser les IA d’une manière différente d’un dev senior, par exemple à l’aide des custom instructions dans ChatGPT :

« Tu es mon mentor, mon professeur, ne me donne pas la solution directement. Fais moi des explications qui me permettent de comprendre comment on arrive au résultat »

Mike Codeur – https://youtu.be/y3sKGZ7GBfY

↑ — Revenir au sommaire

6.3- L’IA, un outil de productivité dans le métier de développeur

« L’IA ne prendra pas votre travail. C’est quelqu’un qui utilise l’IA qui prendra votre travail. »

La classe moyenne des travailleurs du savoir sera confrontée à son propre moment Uber

Si vous vous inquiétez de ce que l’IA signifie pour votre travail, la meilleure défense est d’ apprendre à utiliser l’IA à votre avantage.

Code Concept va dans le même sens :

Les développeurs qui savent se servir des IA remplaceront les développeurs qui ne savent pas se servir des IA

Non-développeur + ChatGPT = réel danger pour les « vrais » développeurs ? – Code Concept

Je crois que c’est clair, il fallait absolument que je m’y frotte moi-même, sans me contenter des retours des Youtubers dev !

L’écueil est que GPT4, tout comme Copilot ou Cody, sont payants. Pouvais-je me contenter du chatGPT3 gratuit, de Bing dans Edge ou de Bard dans Google? Pour mon usage personnel et apprivoiser une IA de code, j’ai finalement décidé de tester Codeium, basé sur GPT, mais gratuit. A ne pas confondre avec Codium, gratuit aussi, et que j’ai également envie de tester.

Installable sous forme d’extension dans l’IDE, Codeium propose la suggestion de code, la refactorisation, l’explication de code et la génération de documentation. Pour le reste, il a un prompt qui s’utilise comme chatGPT. Si on lui adjoint Termium, on peut même l’utiliser dans le terminal
Codium est particulièrement réputé pour son excellente interface de génération de tests (selon Harry Jmg)

A l’usage, je pense que l’IA est un outil de plus qui s’ajoute à la panoplie déjà bien garnie des facilités qu’offrent les IDE : emmet, snipets, intellisense, terminal intégré, extensions diverses, etc.

GitHub Copilot, Codeium, AWS CodeWhisperer : quelle IA est la meilleure pour coder? – Melvynx

Autre série de tests :

Je pense qu’à terme, il me faudra opter pour Copilot

↑ — Revenir au sommaire

6.4- La variété des usages des IA par les codeurs

Au fil des articles sur le sujet, j’ai glané ça et là quelques exemples d’utilisation de chatGPT par des codeurs. Une liste qui est appelée à s’allonger avec le temps… J’ai déjà trouvé un article qui recense plus de 50 invites ChatGPT pour les développeurs Web !

Génération de code
Complétion de code
Optimisation de code
Conversion de code
Explication de code
Revue de code
Refactor de code
Écrire nos commits et pull requests
Détection et correction des bugs et erreurs
Conception et architecture du système
Optimisation pour les moteurs de recherche (SEO)
Génération de données fictives. Donnez lui un objet en json et il vous générera des variations
Écrire des batteries de tests unitaires. Si chatGPT n’y arrive pas, c’est que vous devez refactorer
Documentation et commentaires
Commandes du shell et de GIT
Expressions régulières (regex)
Génération de contenu
CV et lettres de motivation
Préparation à l’entretien
Apprentissage
Intégrer de l’IA à nos propres applis (API ChatGPT)

« Yapuka » tester tout ça !

Pour le coup, j’ai mis à jour ma Mindmap Technos (ajout de Copilot et GPT dans les outils)

L’IA, un outil de productivité dans le métier de développeur

↑ — Revenir au sommaire

6.4- Le métier de développeur va-t-il disparaître ?

A long terme, peut-être. Mais dans l’intervalle, il va surtout évoluer, comme on l’a vu ci-dessus avec l’IA utilisée comme outil de productivité.

Certains oiseaux de mauvais augure vont plus loin en affirmant que le métier de codeur va disparaître au profit de celui de programmeur :

La programmation est le processus de résolution de problèmes à l’aide d’un ordinateur. L’écriture de code n’est qu’un aspect de ce processus. C’est une partie nécessaire, mais ce n’est pas tout. […] Les programmeurs du futur seront bien plus productifs que les programmeurs d’aujourd’hui, capables de prouesses dont nous ne pouvons que rêver.

Coding Won’t Exist In 5 Years. This Is Why

Néanmoins, quel développeur peut se contenter de n’être qu’un pisseur de code? Il doit savoir :

  • Définir son code
  • Utiliser des méthodologies
  • Appliquer des process
  • Définir des architectures
  • Designer son application
  • Automatiser son code
  • Automatiser les tests
  • Déployer automatiquement
Code Monkey

↑ — Revenir au sommaire

<EDIT du 7 février 2024>

6.5- Un bilan après un an et demi d’utilisation des IA pour le code

Une nouvelle étude publiée par la société d’analyse GitClear rapporte que l’utilisation des assistants d’IA pour la programmation ne contribue pas toujours à la qualité du code produit. Les chercheurs de GitClear ont constaté que les outils d’IA comme GitHub Copilot ne donnent en fait que des suggestions pour ajouter du code. Aucune suggestion n’est faite pour la mise à jour ou la suppression de code. Il en résulte notamment une quantité importante de code redondant. Ils ont également constaté une forte augmentation du « code churn ». Cela signifie que le code est fréquemment modifié, ce qui est généralement un mauvais signe pour la qualité.

L’utilisation de l’assistant d’IA GitHub Copilot entraîne une baisse de la qualité globale du code, voila qui est inattendu !

</EDIT>

Quel est votre avis sur les IA génératives comme Midjourney, chatGPT ou Copilot ? Opportunité ou danger? N’hésitez pas à partager votre point de vue dans les commentaires !

↑ — Revenir au sommaire

Aller plus loin

a) Fonctionnement technique des IA génératives

b) Conséquences économiques des IA génératives

c) Intelligences artificielles et éthique

d) Intelligences artificielles et géopolitique

e) IA génératives généralistes

f) IA génératives dans des écosystèmes

g) IA génératives orientées Code

h) Usages de l’IA en code

i) UX : Proposer de l’IA à ses utilisateurs dans ses propres productions

↑ — Revenir au sommaire

Lisez aussi

2 commentaires sur “IA génératives : coder sans développeurs ?”

  1. « L’IA générative : coder sans développeurs ? » est un sujet intriguant qui explore les possibilités de la génération de code par l’IA. Il montre comment la technologie évolue pour simplifier des tâches complexes, ce qui pourrait révolutionner le développement de logiciels et le rendre plus accessible à un public plus large.

  2. Retour de ping : Les technos qu'un développeur web devrait connaitre - Infodocbib

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Partagez
Tweetez
Partagez