Pourquoi je n’utilise pas l’IA

L’IA me gonfle. Profondément.
Enfin, surtout l’IA générative (tu sais, les LLM), parce que je peux concevoir une certaine utilité à certains types d’IA. La reconnaissance vocale, par exemple.

Passons un peu en revue mes raisons de ne pas utiliser l’IA.

Une catastrophe pour le climat

Les boîtes d’IA veulent d’énormes data-centers pour leur serveurs, qu’il faudrait construire, alimenter en électricité, refroidir… Les besoins en électricité sont déjà absolument monstrueux et ça va pas s’arranger.
Dans un monde fini, accélérer la croissance, c’est pas une bonne idée. Surtout si comme ce connard d’Elon Musk, on choisit d’utiliser — sans permis, tant qu’à faire — des génératrices à méthane qui polluent énormément.

La consommation en eau des data-centers fait peser un poids énorme sur les ressources hydriques.
Tu préfères boire et avoir une agriculture qui te permet de manger ou tu préfères causer à ChatGPT ? Moi j’ai choisi.

N’oublions pas qu’il va falloir les remplir, ces data-centers. Avec des serveurs plein de cartes graphiques qu’on va changer tous les ans parce que bon, la nouvelle génération est plus efficace, vous comprenez. Bonjour le bilan en extraction de terres rares.

Oui mais l’inférence (l’utilisation d’un modèle d’IA) est plus économe en ressources que l’entraînement, ça va…

Sauf que :

  • pour avoir de l’inférence, il faut entraîner des modèles d’abord ;
  • on pourrait arrêter d’entraîner des modèles et se dire qu’on ne fera plus que de l’inférence à partir de ceux existants… mais c’est pas la direction prise par les boîtes d’IA ;
  • vu qu’on nous sert de l’IA à toutes les sauces (dans les applis de messagerie, les chatbots qu’on voit apparaître sur un peu sur tous les types de sites, dans les documentations en ligne…), on a un usage de l’IA monstrueux. Donc oui, l’inférence est plus économe, mais si on multiplie son usage, ça bouffe énormément de ressources.

Un entraînement aux relents coloniaux

Il ne suffit pas de fournir des données pour entraîner une IA, il faut surtout étiqueter les données : vous aurez beau donner 100 images de chien à une IA, si vous ne lui dites pas que c’est un chien, elle ne le devinera pas elle-même.
Et pour lui donner 100 images de chiens, il faut trouver 100 images de chien et s’assurer que ce sont bien des chiens qui sont dessus.
Et pour ça, il faut des humain·es.

Vu que les humain·es coûtent cher, embauchons-en dans les pays pauvres, allez !
Comme ça, on peut les payer moins de 2$ de l’heure.

Et puis si tu leur fais étiqueter des contenus pornographiques, gore, avec des abus sur enfants et qu’iels finissent avec des troubles post-traumatiques… bah tu t’en fous.

Bref, ça me fait gerber.

Un entraînement aux deux poids, deux mesures

Les compagnies d’IA ont piraté à toute berzingue pour entraîner leurs modèles.
C’est connu, et ils ont des procès au cul pour ça.

Toi, quand tu télécharges un film en torrent, c’est du piratage, et tu te prends une amende par l’ARCOM.

Eux se prennent un procès, mais plaident le faire use.

C’est du foutage de gueule.

Quand on voit comme la justice américaine a poursuivi Aaron Swartz pour avoir téléchargé un monceau d’articles scientifiques, au point de le pousser au suicide…
Là aussi, j’ai comme un goût de vomi dans la bouche.

Attention : je ne dis pas que le copyright, c’est bien. Je dis juste que ça me fait penser à la fable des animaux malades de la peste.

Selon que vous serez puissant ou misérable
Les jugements de cour vous rendront blanc ou noir

Du capitalisme, du capitalisme, du capitalisme !

Les investissements se comptent en dizaine, en centaines de milliers de dollars.
Les valeurs en bourse des boîtes qui tournent autour de l’IA ont crevé le plafond, bien que ça commence à redescendre.

On a vu des trucs complêtement délirants, comme des investissements circulaires :

  • A investit 100 milliards dans B
  • B investit 100 milliards dans C
  • C investit 100 milliards dans A

Mais la bulle commence à se dégonfler. Antropic a par exemple décidé de changer les termes du contrat : durant les heures de pointe, les utilisateur·icess sont bridé·es… même celleux qui paient !

Rappelons que le futur vu par Sam Altman, c’est de vendre de l’intelligence, comme on vend l’eau et l’électricité.

Ça va être rigolo quand les investisseurs vont vouloir récupérer leur pognon : je sens qu’on verra les tarifs d’utilisation des IA crever le plafond (après vous avoir rendu bien accro, bien sûr…).

Bonus :

  • la demande en mémoire vive, cartes graphiques, disques des boîtes d’IA est telle que les prix explosent, et ça se répercute sur le matériel grand public ;
  • et que se passera-t’il quand ce sera la demande en électricité qui sera énorme ? Bah oui, le prix augmentera pour tout le monde.

L’atrophie cognitive

De la même façon qu’utiliser sa voiture pour aller à la boulangerie au lieu de marcher 5 minutes vous affaiblit physiquement, l’utilisation de l’IA peut entraîner une baisse de vos facultés cognitives.

Chouette, non ?

On t’en fout là où t’en veux pas… et où c’est pas nécessaire

Quand je vois un bouton « Ask AI » dans une documentation technique, je soupire.
J’ai cliqué une fois un peu trop vite et ça a généré… une paraphrase de la documentation.

Un moteur de recherche qui m’aurait emmené à la page de la documentation aurait été plus efficace.

Un appauvrissement de la culture

Les IA ne sont capables que de régurgiter ce qu’elles ont ingéré.
Si la plupart des textes que nous lisons, des dessins que nous regardons sont générés par IA, on ne fera que voir et revoir des variations sur les mêmes thèmes.

Everything is a copy of a copy of a copy

Combien d’artistes vont laisser tomber, parce que leurs créations seront noyées dans la masse de bouillie générée par IA ?
Combien de personnes ne se lanceront pas ?

Le métier de traducteur·ice tend aussi à se faire remplacer par l’IA. On remplace une sensibilité humaine par de la traduction automatique supervisée par des humain·es.
Or quand on voit que les nouvelles traductions de 1984 et du Seigneur des anneaux ont fait l’objet d’articles sur différents médias d’importance, on peut se dire que oui, traduire, c’est un métier, pas une tâche basique et automatisable.

Ça raconte de la merde

Google commence à réécrire les titres des sites sur sa page de résultat, sans doute histoire de les rendre plus attrayants. Problème (hormis l’éthique) : ça fait parfois des titres à contresens du titre originel.

J’ai déjà eu droit à un résumé IA sur la page de recherche de Google où il mixait deux paragraphes d’une page. Je voulais savoir s’il était vrai qu’il fallait faire pipi sur une piqûre de méduse. L’article parlait aussi des piqûres de moustiques (entre autre piqûres de l’été).
J’ai donc eu droit à un résumé parlant de faire pipi sur une piqûre de moustique.

Je passe sur l’étudiant qui ne comprenait pas pourquoi un service ne se lançait pas à cause d’un paramètre de configuration suggéré par ChatGPT, paramètre invalide qui n’existait pas (c’était en 2023).

Je dis pas que ça raconte toujours de la merde. Je dis juste qu’un machin qui raconte de la merde 30% du temps, c’est juste pas un outil fiable.

Pour mes recherches sur le net, j’utilise DuckDuckGo sans IA et l’extension No Google AI search pour les quelques fois où je passe par Google.

Où est le déterminisme ?

L’outil informatique est supposé être déterministe, à savoir qu’avec les mêmes données d’entrées, vous avez la même sortie.

C’est ce qui permet à votre calculette de dire que 2 et 2 font 4, à tous les coups. Et donc, c’est fiable.

Mais avec l’IA, vous n’avez pas forcément la même réponse à la même question (lisez le fil depuis le début, c’est très intéressant).

Ça reproduit les préjugés

Les IA reproduisent les préjugés présents dans les données qui leur ont servi pour l’entraînement.

Et comme aujourd’hui l’IA s’entraîne sur des contenus générés par IA, les biais et préjugés sont là pour rester.

En vrac

Là je sens que le billet se fait long, donc juste qq arguments vite fait :

Les contre-arguments

Ça permet de faire de beaux mails bien propres

Sur le net, on voit de temps en temps passer un mème en deux temps :

  • l’expéditeur : ChatGPT, fais-moi un beau mail à partir de ces 3 points ;
  • le destinataire : ChatGPT, résume-moi ce mail en 3 points.

Quelqu’un sur Mastodon (flemme de rechercher dans ma timeline) a même suggéré la règle suivante (je paraphrase) :

Au lieu de m’envoyer un mail rédigé par IA, envoie-moi le prompt que tu voulais utiliser, ça ira plus vite

Bref, est-ce que ça a vraiment un intérêt ? J’ai l’impression qu’on perd du temps à se faire des courbettes pour faire classe, alors que l’important, c’est le contenu du message.

Ça permet à des gens mal à l’aise avec l’écrit / une langue d’écrire des trucs proprement

Ok, c’est un bon point, je ne peux pas le nier.

Ça permet d’aller plus vite

Oui, peut-être. Mais j’ai envie de dire « pourquoi faire ? ».
Le monde ne va-t’il pas déjà assez vite ?

Et si les travailleur·euses travaillent plus vite grâce à l’IA :

  • est-ce que ça les fait travailler moins ? Non ;
  • est-ce qu’iels gagnent plus ? Je doute qu’iels soient augmenté·es, la marge va plutôt dans la poche des employeur·euses.

T’as une position de bourgeois privilégié

Oui, peut-être, et ?

Je parle de moi, de mon ressenti, je n’oblige personne à partager ma position, je me contente de l’exprimer.
Et accessoirement, j’ai mis pas mal de sources dans cet article pour étayer mes affirmations et soutenir ma position.

J’essaye aussi de manger bio le plus possible, histoire de manger mieux et d’éviter de pourrir la biodiversité, parce que j’ai les moyens (financiers, et de magasins bio dans mon coin).
Oui, ça fait de moi quelqu’un de privilégié, parce que je peux me le permettre, mais ça n’invalide pas pour autant les raisons pour lesquelles je mange bio… et pour lesquelles je pense qu’on devrait toutes et tous pouvoir manger bio.

Conclusion

Je considère la balance bénéfice/risques de l’IA,et je trouve que ça ne penche pas du bon côté.

Dit autrement : je conchie l’IA.

52 réflexions au sujet de “Pourquoi je n’utilise pas l’IA”

  1. RE: https://fiat-tux.fr/2026/04/02/pourquoi-je-nutilise-pas-lia/

    @luc
    Très bonne publication bien argumentée, merci.

    #AI #IA #ArtificialIntelligence #IntelligenceArtificielle

  2. RE: https://fiat-tux.fr/2026/04/02/pourquoi-je-nutilise-pas-lia/

    @luc
    Très bonne publication bien argumentée, merci.

    #AI #IA #ArtificialIntelligence #IntelligenceArtificielle

  3. @luc Mon ressenti exact sur beaucoup de points, mais clairement argumenté et sourcé, merci !

  4. @luc Merci. On peut réutiliser avec CC-by ?

  5. @luc Question sincère : du coup, on fait quoi en France ? On arrête l'IA ? Les entreprises, les salariés et les citoyens ne l'utilisent plus ? On demande également à nos chercheurs et ingénieurs de faire autre chose ? Les LLM, on a testé, c'est pas bon. Et pour les autres IA ? Idem, on ne continue pas.

    On pourrait faire le même billet pour Internet et pour l'informatique au global. Il serait préférable de les débrancher, vu qu'ils penchent sérieusement du mauvais côté.

    • @naroungas @luc Oui, tout usage du numérique est écocide. Est-ce une bonne raison pour en rajouter une couche ? Non.

      • @abon999 @luc Oui mais on ne peut pas rester dans ce clair/obscur. Soit le numérique est écocide et on arrête, on bifurque vers une autre société (sans numérique), soit on intègre ce risque avec les potentiels bienfaits que le numérique peut apporter. Mais un semi-conducteur, un ordinateur, un serveur ou l'IA ont le même risque. Dénoncer l'IA sur un réseau social (même open source), c'est comme acheter un SUV électrique pour "sauver la planète" : ça n'avance à rien. Faut faire un choix.

        • @abon999 @luc Si on dit : "il faut interdire l'IA ou ne plus l'utiliser", on vise directement ou indirectement des personnes, des emplois, une économie. Le chercheur en IA pourrait très bien rétorquer :"Pendant 30 ans, les devs/admin sys ont contribué à polluer, alimenter la polarisation en ligne, détruit des espaces naturels, le logiciel a bel et bien dévoré le monde. Arrêtons tout."

          On ne peut pas pointer une techno et se dire "oui, mais moi ça va, je suis dev, c'est tolérable."

          • Pour revenir sur la métaphore de la bagnole, j’ai envie de dire qu’on aurait dû interdire purement et simplement les SUV.
            Pourquoi ? Parce qu’on peut avoir le même service rendu pour un impact écologique bien plus bas.

            > on vise directement ou indirectement des personnes, des emplois, une économie

            Parce que l’IA ne va faire virer des gens, flinguer des emplois, une économie ? Dis ça aux traducteurs et traductrices de chez Arte : https://next.ink/brief_article/chez-arte-les-revenus-des-traducteurs-chutent-a-mesure-que-lia-est-adoptee/

            On est sur une industrie avec un ensemble de négativités incroyables, ça ne fait que ±5 ans que cette industrie se répand partout.
            Je ne suis pas d’accord avec le fait que c’est trop tard pour l’arrêter pour des raisons d’emploi ou d’économie.

          • @luc Je peux dire la même chose pour les développeurs. Combien d'emplois ont été détruits par les développeurs, du fait de la désintermédiation ou de la disruption ?

            Personne dans ces professions ne s'est remis en question. Je n'ai pas vu de manifestations "Le logiciel détruit des métiers", or c'est le cas pour des milliers d'emplois. Tout repose sur l'open source, quelle est la part de responsabilité de l'open source dans la destruction de la planète et la fragilisation de nos démocraties ?

          • 1. ça fait déjà bien plus longtemps que l’informatisation est entrée dans les mœurs, là on parle de moins de 5 ans ;
            2. est-ce qu’à l’époque, on en savait autant qu’aujourd’hui sur le changement climatique ? Sur la nécessité d’être plus économes en énergie et plein d’autres chose ? Non. On ne peut pas se permettre l’IA, et on en a conscience, contrairement aux débuts de l’informatique.
            3. « Personne dans ces professions ne s’est remis en question. ». Lol. Le nombre d’informaticiens qui se diraient qu’ils seraient pas plus mal à aller élever des chèvres ou se faire boulanger…
            4. « Tout repose sur l’open source, quelle est la part de l’open source […] ». Oui oui, bien sûr. Ça n’a strictement rien à voir avec la volonté de capitalistes libertariens de se faire encore plus de pognon. Si on va par là, on va aller taper sur le premier hominidé qui a créé le premier outil, hein. Ou alors c’est la faute à ceux qui produisent de l’électricité.

            (vos prochains commentaires seront ignorés, car vous souhaitez manifestement troller et j’ai autre chose à faire de mes journées)

      • @abon999 mais toute activité humaine n’est-elle pas écocide ? Pas à 100%, mais presque ! Il est acceptable de vivre/respirer/manger/consommer, mais en respectant les limites planétaires. Or aujourd’hui on les dépasse allègrement. Que faire, sachant que le capitalisme exige de la croissance alors qu’il faudrait décroître ? Cc @naroungas @luc

  6. @luc
    (Dans certains états US, les prix de l'électricité ont déjà flambés à cause de l'IA. On trouve facilement des sources en faisant une recherche web)

  7. @luc

    je sais pas le genre de l'ia de l'app whobirds pour reconnaître les oiseaux par leur chants … ou de l'ia des app pour reconnaître les plantes …. mais c'est fantastique pour apprendre 😲

    • @fourmiune @luc
      C'est un système de reconnaissance. Ça ne génère rien, pas besoin de ré-entrainer le modèle tous les matins (il n'y a pas de nouveaux oiseaux ou de nouvelles plantes tous les jours), et ça tourne tranquillement sur un smartphone qui a 10 ans (whobird en local). C'est sobre et utile (de mon point de vue)

    • @fourmiune @luc Il y a une volonté d’amalgame au sein des promoteurs de systèmes LLM (qui sont visés dans ce texte) pour s’approprier le terme “Intelligence Artificielle”, même (et surtout) si il était utilisé pour désigner des systèmes très différents dans leur approche.

      L’apprentissage machine n’est pas une nouvelle technologie, et c’est ce sur quoi les systèmes de reconnaissance visuels sont basés. Mais l’impact environnemental et sociétal est absolument incomparable avec les systèmes LLM qu’on nous vend actuellement.

      • @hypolite @luc oui

  8. @luc Je me retrouve dans beaucoup des points, mais il y en a un pour lequel c'est bloquant : "aller plus vite". Je bosse dans une petite structure, on rend des services aux agriculteurs. La réalité, c'est qu'on est dans ce putain de monde capitaliste, basé sur la concurrence, qui fait qu'on doit faire toujours plus et toujours mieux que le concurrent pour survivre. Et franchement on a tous la trouille de se dire que si nous on n'accélère pas, les autres ne vont pas se priver, et on va juste crever (économiquement) avec nos convictions. Franchement c'est dur à vivre.

    • @bodul @luc Je comprends l’angoisse, sciemment entretenue par les vendeurs d’IA, mais étude après étude montrent que les LLMs permettent d’aller plus vite, mais pas au même niveau de qualité.

  9. @grok résume ce texte (patapé xD)

    @luc je ressens énormément de mes propres convictions et mes propres colères dans ce que tu écris. Je pense qu’il y a un parallèle à faire entre l’utilisation de l’IA et la consommation de viande : si tu sais dans quelles conditions c’est fait et quel impact ça a sur le monde, naturellement tu réduis. tu lèves le pied complètement ou partiellement, mais tu peux pas rester « comme avant » en ayant connaissance de ce qui se passe derrière les coulisses.

  10. @luc En plus de tout ça je recommande uBlackList pour pouvoir virer certains sites des résultats de recherche

    https://ublacklist.github.io/docs

  11. @luc sur entraînement vs inférence… on entraîne le modèle un petit nombre de fois (idéalement une) mais on fera des millions ou milliards d’inferences avec.

    Le bilan des inférences a terme dépasse largement celui de l’entraînement et les data centers dont on parle ce n’est vraiment pas que pour l’entraînement !

    À ma petite échelle en computer vision j’entraîne un modèle sur mon laptop en qq heures mais le modèle a déjà traité près de 100M de photos pour @panoramax

  12. @luc
    J'ai deux (trois ?) contre-arguments sur deux point distincts :

    1: Aspect colonial

    Vu que l'on parle de LLM, c'est modèle sont entrainés sans étiquettages par humain, contrairement aux modèles de génération d'images/vidéos et transcriptions. De ma compréhension, en gros tant qu'il n'y a pas de passage d'un état à un autre (texte vers son, son vers texte, texte vers image, etc.) L'annotation humaine n'est pas nécessaire.

    • @luc
      Donc sur ce point spécifique les LLM sont un peu à part. C'est de l'entrainement automatique. Je pense que ça mérite précision. En revanche, bien sûr, le HRL ce sont des annotations humaines… bon du coup c'est pas un contre argument. Juste une précision ; je trouve que les LLM sont tout de même à part sur ce point là.

    • Pour les LLM, es-tu sûr qu’il n’ont pas besoin d’annotations lors de leur entraînement sur des textes ?

      Comment peuvent-il alors classifier des insultes comme de la violence verbale ? (1er exemple qui me passe par la tête)

      Je pose vraiment la question, hein : je ne sais pas s’ils ont des annotations ou pas, mais mon instinct me dit qu’ils en ont.

      Répondre
      • (désolé, je ne peux pas répondre au bon pouet, WordPress ne l’a pas récupéré)

        > Ce qui poserait problème d’un point de vue copyright c’est si le modèle reproduit un bout d’une œuvre protégée suffisamment proche de l’originale.

        C’est bien le cas : « Leur plainte liste plusieurs exemples de réponses fournies par ChatGPT reprenant presque mot pour mot des articles publiés par ses journalistes ».

        Répondre
        • @luc
          Oui sur cet aspect précis de reproduction d'un article quasi mot pour mot, il y a violation du copyright, mais pour tous les usages autres comme génération de code ou de texte contextualisé (qui me semble être les usages les plus courant), on est bien sur du fair use. Je ne pense pas que les plaintes pour violation de copyright soient couvertes de succès, puisque ça tombera dans le cadre du fair use.

          • @luc
            C'était un contre argument sur ça précisemment :

            > Toi, quand tu télécharges un film en torrent, c’est du piratage, et tu te prends une amende par l’ARCOM.
            >
            > Eux se prennent un procès, mais plaident le faire use.
            >
            > C’est du foutage de gueule.
            >
            > Quand on voit comme la justice américaine a poursuivi Aaron Swartz pour avoir téléchargé un monceau d’articles scientifiques, au point de le pousser au suicide…

          • @luc
            Aaron Swartz ou moi qui copie une oeuvre pour la redistribuer à grande échelle sans modifications substantives ne rentrera effectivement pas dans le cadre du fair use, contrairement à la génération de texte probabiliste.

      • @luc
        Non tu as raison, c'est pour ça que j'ai un peu nuancé ici https://pouet.chapril.org/@louisvgn/116334157397030256

        Fondamentalement c'est automatique (cf. je crois cette vidéo https://www.youtube.com/watch?v=bmr718eZYGU mas je suis plus certain ; si ce n'est pas celle-là, c'est une autre de cette chaîne que je recommande au passage), mais il y a des améliorations faites qui utilisent des humains comme le HRL (human reinforcement learning).

  13. @luc pas mieux

  14. @luc merci pour l'essai étayé. J'en rajoute. Au delà de l'atrophie cognitive, je vois un mal-être social sévère poindre. Mon opinion est qu'on ne peut pas se permettre les LLM (coucou @nitot). Mais le capitalisme et la course à l'IArmement va fâcher des gens (moi, déjà), et vu que rien de tout ça n'est libre, effectivement productif voire même viable… Ça va pas être simple de convaincre ceux qu'on a écrasé de "revenir" bosser après avoir tout salopé (et poussé +2°)

  15. @luc Le problème d'un post unique très long, c'est qu'on peut fav qu'une seule fois 😟
    Donc voilà, à la main, quelques étoiles de plus : ⭐⭐⭐⭐⭐

    (Et sinon, pour les piqûres de moustique..?)

  16. @luc Votre approche critique est nécessaire, mais si une IA prédictive prévenait de phénomènes météos comme la grêle ou le gel suffisamment à l'avance, et avec une grande précision géographique, pour que des agriculteurs puissent s'en prémunir, ce serait formidable.

    • On est alors dans le cas d’une IA qui n’est pas un LLM, et qui n’est pas à destination du grand public.

      Et les météorologues n’ont pas attendu ChatGPT pour utiliser l’IA : d’après cette page, « [Météo France] utilise en effet des formes d’IA depuis plusieurs dizaines d’années ».

      Répondre
  17. @luc @x_cli but how can ddg s ability to interpret a not so so perfectly framed / composed sentence or two improve?

  18. @luc Merci.

  19. @luc il manque d’après moi le pire problème : les IA doivent être biaisés by design. Si aujourd’hui la plupart des IA sont biaisées « dans le bon sens » pour faciliter leur adoption, rien n’interdira demain quand leur propriétaires auront des positions hégémoniques de choisir de biaiser des modèles pour promouvoir ce qui leur chante, de la pub dans un premier temps, et pire ensuite. La capacité d’influence des LLM sera considérable. Et ça pourra être quasiment indétectable, car les propriétaires pourront swaper les modèles comme bon leur chante, et uniquement pour les populations qu’ils souhaitent cibler.

    • > aujourd’hui la plupart des IA sont biaisées « dans le bon sens »

      Ça c’est ce que tu crois.

      Déjà, y a les biais dus aux données d’entraînement, qui peuvent éventuellement être corrigés (enfin… que les boîtes peuvent essayer de corriger), mais pour ça, il faut les repérer, ces biais. Et ça… bah faut un sacré effort.

      Ensuite, « dans le bon sens », ça dépend du bon sens de qui : le bon sens des USA de Trump, le bon sens des Européens libéraux (au sens capitaliste du terme ET au sens évolution des mœurs pour plus d’inclusion — j’entends par là que les politiques anti-discrimination sont encore considérées comme bonnes par la plupart des gouvernements européens), le bon sens de la Chine avec son contrôle social ultra-poussé et son parti unique… Bref, y a autant de bon sens que de gens à qui tu demandes, et ce bon sens ne sera pas le même selon que l’IA est européennes, chinoise ou vient des USA.

      Ensuite, va savoir si y a pas déjà des biais ajoutés exprès, mais suffisamment subtils pour que tu les vois pas.

      Répondre
      • @luc exactement, c’est pourquoi j’avais mis « dans le bon sens » entre guillemets. Le procéssus de « biaisage » du modèle est incontournable pour conformer le modèle à ce que souhaite faire les propriétaires. C’est pourquoi, pour moi le problème majeur des llm, sera toujours qu’ils sont controlés par des propriétaires qui peuvent nous proposer des modèles biaisès dans le sens que eux souhaitent, et que l’on aura jamais d’infos la dessus.

  20. @luc
    Ça y est j'ai enfin pris le temps de lire ce billet.

    Je suis 100% d'accord.
    J'ai cumulé de (trop) nombreux articles sur tous ces sujets, au point que je n'ai plus le courage de tout relire pour faire une synthèse, et ce billet en est globalement une bonne 🙂
    Merci Luc 🙏

    • @luc
      Je peux ajouter quelques réflexions :
      – La responsabilité : si tu tues quelqu'un tu vas en prison. Si c'est une IA qui est responsable ? ("Personne" n'est pas une réponse acceptable)
      – Comment justifier une décision de justice (ou administrative) prise par un système comme ça ?
      – Le scrapping des images/vidéos/sons est grave. On ne peux pas comparer un humain qui va interpréter et créer du nouveau et une IA qui va faire des moyennes statistiques sans conscience. C'est de l'accaparement.

  21. @luc
    En total accord avec toi, mais je ne l'aurais jamais aussi bien expliqué 😅

    Ce qui me chagrine beaucoup en ce moment c'est le fiston qui utilise systématiquement Gemini comme moteur de recherches 😞

  22. J’ai essayé, pour voir, le coup de la 3ème lettre de Sardou (via le lien présent dans « lisez le fil depuis le début, c’est très intéressant »).
    Bah, chaptgpt répond correctement à chaque fois, même si on essaye de le faire douter, il n’en démord pas.
    Pas drole… ^^

    Répondre
    • On notera que la personne n’a pas utilisé ChatGPT mais un modèle qui tourne en local sur son ordinateur (ce qui permet de montrer comme l’ordi chauffe pendant que ça bosse).

      Répondre
  23. @luc

    > Au lieu de m’envoyer un mail rédigé par IA, envoie-moi le prompt que tu voulais utiliser, ça ira plus vite

    Cette citation vient de Florence Maraninchi

  24. @luc Je retrouve des arguments que je partage complètement (objets d'ailleurs d'un billet de mon blog il y a peu). Bien dit !
    https://eghone.eu/ia-ne-pas-se-tromper-de-debat/

  25. @luc Merci pour cet article synthétique qui résume parfaitement ma position. Ça fait toujours du bien de savoir qu’il y a d’autres gens qui pensent pareil parce que sur LinkedIn on ne parle que de ça.

    Cela dit, je ne juge pas (trop) celleux qui utilisent ces systèmes. D’une part, le coût environnemental n’augmente pas beaucoup au niveau individuel. Comme il a été dit dans ce fil, l’inférence est bon marché comparée aux coûts d’entraînement des modèles globaux.

    D’autre part, je n’ai aucune illusion sur l’efficacité du boycott personnel de ces technologies. Les plus grosses entreprises dans le secteur sont déjà déficitaires à mort pour avoir voulu créer Dieu dans une machine, du coup un tel boycott ne peut pas entamer des profits qui n’existent pas.

  26. @luc Merci pour cette synthèse, elle est chouette et fait bien le tour!

  27. @luc
    whobirds
    flora incognita
    Birdsnet
    Plantnet

    C'est vraiment super pour reconnaître les oiseaux et les plantes . 😉

  28. @luc Merci pour cet excellent article et je ressens la même chose, comme beaucoup ici je suppose vis à vis des IA génératives.

Laisser un commentaire