Il y a quelque temps, je parlais ici du danger de l’autophagie, ce moment où l’intelligence artificielle commence à se nourrir de ses propres contenus, recyclant indéfiniment les mêmes idées, appauvrissant la diversité du savoir.
L’autophagie cognitive, quand l’humain se nourrit de contenus appauvris ! : https://www.linkedin.com/pulse/lautophagie-cognitive-quand-lhumain-se-nourrit-de-philippe-buschini-f5hze
et
L’Autophagie, quand l’IA se nourrit d’elle-même : https://www.linkedin.com/pulse/lautophagie-quand-lia-se-nourrit-delle-m%C3%AAme-philippe-buschini-9fy7e
Mais il y a un autre risque, encore plus intime : celui de nous soulager de l’envie même de penser.
Imaginez un architecte du savoir. Chaque jour, il trace, questionne, relie les idées entre elles. Puis un jour, une machine lui propose les plans. Clairs, rapides, séduisants. Alors il ajuste. Il valide. Mais il ne doute plus.
L’IA ne nous attaque pas. Elle nous aide. Et c’est justement là que le glissement s’opère. Elle nous épargne l’effort, et cet effort, c’est parfois tout ce qui nous restait pour rester vraiment humains.
Et si le plus grand danger n’était pas dans l’outil… mais dans la combinaison de ces deux phénomènes ?
– Une IA qui tourne en boucle sur elle-même.
– Des humains qui n’ont plus le désir de produire autre chose.
J’ai tenté d’explorer cette question dans un article de fond. Ni dystopique, ni enchanté. Juste lucide.