Address
304 North Cardinal St.
Dorchester Center, MA 02124

Work Hours
Monday to Friday: 7AM - 7PM
Weekend: 10AM - 5PM

Pourquoi s’inquiéter d’un troisième Hiver de l’IA?entre promesses et illusions, sommes-nous prêts à faire face ?

Voici l’idée qui ressortit du débat à la BBC de Sir Litghtill au sujet des Intelligence Artificielle. Ce disours eu un impact si important que les fond furent gelés, et l’aventure de l’IA freinée! ET en 2024, avec la croissance rapide des technologies d’intelligence artificielle (IA), nous devons nous demander si nous ne nous précipitons pas, une fois de plus, vers un nouvel « hiver de l’IA ». Pour comprendre cette idée, il est essentiel de rappeler les deux précédents hivers de l’IA.

Le premier hiver de l’IA, dans les années 1970, a été causé par des attentes irréalistes sur les capacités des systèmes IA et par un manque de puissance de calcul, ce qui a conduit à un désintérêt et à une réduction drastique des financements. Le second hiver, dans les années 1980-1990, a été déclenché par l’échec des systèmes experts à répondre aux attentes commerciales, en raison de leurs coûts élevés et de leur complexité. Ces périodes de ralentissement ont mis en évidence la vulnérabilité de l’IA face aux promesses non tenues et aux attentes irréalistes. Aujourd’hui, les promesses sont vastes, mais les défis — écologiques, éthiques, éducatifs — le sont également.

J’ai construis cet article autour des thèmes qui me tiennent à coeur, que j’ai optimisé à l’aide de l’IA pour obtenir des élements sourcés. N’hesitez pas à me signaler en commentaires ce qu’il faudrait améliorer, et si le sujet vous parle.

L’aberration écologique : un coût énergétique colossal

Chaque modèle de langage, chaque IA qui apprend et génère, cache une consommation énergétique massive. Les supercalculateurs nécessaires à l’entraînement de ces IA consomment d’énormes quantités d’électricité, laissant une empreinte carbone importante (source : Strubell et al., 2019). Par exemple, l’entraînement du modèle GPT-3 est estimé produire environ 552 tonnes de CO2, ce qui équivaut à des dizaines de vols transatlantiques, ou à la consommation annuelle d’électricité de 100 foyers américains (source : Strubell et al., 2019). Cette consommation massive d’énergie soulève une question fondamentale : à quel prix soutenons-nous cette ruée vers l’IA ?

Une vision à court terme en décalage avec les enjeux de demain

Aujourd’hui, les investissements dans l’IA affluent : 62,5 milliards de dollars en 2022, par exemple, dans le secteur de l’IA (source : IDC, 2023). En 2021, les dépenses mondiales en IA avaient déjà atteint 51,5 milliards de dollars, représentant une augmentation de 20,7 % par rapport à l’année précédente (source : Gartner, 2022). Cependant, la vision à long terme est souvent négligée. Les entreprises semblent davantage concentrées sur les profits immédiats plutôt que sur les implications éthiques et sociétales à long terme. Il est impératif de concilier la création de valeur à court terme avec la préservation de notre avenir commun.

L’urgence de la formation : préparer la société à l’ère de l’IA

Le développement de l’IA exige une formation adaptée. Cela inclut la mise en place de cursus spécialisés en intelligence artificielle dans les universités et des programmes de reconversion professionnelle pour les travailleurs affectés par l’automatisation (source : World Economic Forum, 2021). Mais sommes-nous prêts ? Beaucoup d’étudiants et même de professionnels ne sont pas préparés à comprendre l’impact de l’IA sur leurs carrières et sur la société. Le système éducatif est en retard sur les avancées technologiques. Par exemple, selon un rapport de l’UNESCO (2022), seulement 40 % des enseignants se sentent suffisamment formés pour intégrer les outils numériques dans leurs cours, et moins de 25 % des établissements scolaires ont une stratégie claire pour l’enseignement de l’IA. Cela montre clairement à quel point l’éducation peine à suivre le rythme des avancées technologiques. Il est essentiel de former des citoyens capables de comprendre, de critiquer et de diriger ces technologies, et non des utilisateurs passifs.

Les DSI : sécurité des données et enjeux éthiques

Les Directeurs des Systèmes d’Information (DSI) sont souvent réticents à adopter les technologies d’IA, et pour de bonnes raisons. La sécurité des données est un enjeu crucial : selon un rapport de Gartner (2023), 58 % des entreprises considèrent la sécurité des données comme la principale barrière à l’adoption de l’IA. Les questions éthiques et le manque de transparence des algorithmes posent également des problèmes majeurs. Le défi est de protéger les informations sensibles tout en garantissant une utilisation éthique des données. La technologie progresse plus vite que les institutions ne peuvent l’encadrer : sommes-nous prêts à suivre ce rythme ?

Le déclin de l’esprit critique : une menace silencieuse

Avec la disponibilité croissante des outils IA, il existe un risque réel de paresse intellectuelle. Pourquoi réfléchir lorsque l’IA peut fournir une solution ? Cette tendance est déjà visible chez les étudiants qui préfèrent les réponses prêtes à l’emploi, par commodité. Comme l’a dit Albert Einstein : « La valeur d’une éducation ne réside pas dans l’apprentissage de nombreux faits, mais dans la formation de l’esprit à penser ». L’abandon de l’esprit critique a un coût élevé. Selon une enquête menée par Pearson (2022), près de 60 % des enseignants estiment que l’utilisation excessive des outils numériques, y compris l’IA, réduit l’esprit critique des étudiants.

L’esprit critique en crise : quelle éducation pour les générations futures ?

L’esprit critique est la capacité d’analyser, d’évaluer et de juger de manière indépendante les informations, les idées et les arguments. Aujourd’hui, l’éducation fait face à une crise de l’esprit critique. Les outils d’IA se multiplient dans les écoles et universités : selon HolonIQ (2023), le marché de l’EdTech, incluant les technologies d’IA, devrait atteindre 404 milliards de dollars d’ici 2025, et plus de 70 % des établissements d’enseignement supérieur utilisent déjà une forme d’IA dans leurs programmes pédagogiques. Cela doit être accompagné d’un enseignement axé sur le doute constructif et la réflexion éthique. Si l’éducation se contente d’enseigner l’utilisation des outils, tels que les plateformes de génération de texte automatisée, les logiciels de reconnaissance d’image, et les outils d’analyse prédictive, sans développer les compétences critiques et analytiques, nous risquons de réduire les générations futures à de simples exécutants.

Défis éthiques et sécurité des données : où allons-nous ?

L’IA est intrinsèquement liée à des défis éthiques complexes, notamment ceux identifiés en 2024 : l’augmentation des biais algorithmiques, c’est-à-dire des préjugés intégrés dans les systèmes d’IA lors de leur conception, la manipulation de l’information, l’impact sur la vie privée à cause de la collecte massive de données personnelles, et le manque de transparence dans les décisions algorithmiques (source : AI Ethics Report, 2024). De la question de la sécurité des données à celle des biais algorithmiques, il est essentiel de se demander comment garantir une IA au service de tous — une IA équitable, accessible et bénéfique pour toute la société, qui respecte les droits et la vie privée des individus, et qui ne soit pas monopolisée par quelques grandes entreprises. Selon un rapport de McKinsey (2024), 78 % des ressources et des investissements en IA sont contrôlés par seulement 10 % des grandes entreprises mondiales, ce qui exacerbe les inégalités d’accès et de développement.

Conclusion : Quelle direction choisissons-nous ?

Nous sommes à un tournant crucial : cette troisième évolution de l’IA pourrait soit marquer une véritable révolution humaniste, soit entraîner un nouvel hiver, causé par notre incapacité à répondre aux défis critiques. Quelle place voulons-nous donner à l’intelligence humaine dans cette ère d’intelligence artificielle ? Comment préparons-nous les générations futures ? Ces questions sont ouvertes, et c’est maintenant qu’il faut y répondre.

Et vous, qu’en pensez-vous ? Que pouvons-nous faire, ensemble, pour garantir un avenir éthique et éclairé pour l’IA ?

Sources :
– Sir Lightill à la BBC =
– Luc Julia à propos du 3e Hiver = https://podeduc.apps.education.fr/video/17389-lia-peut-elle-connaitre-un-3eme-hivermp4/
– Calculateur d’impact écologique = https://huggingface.co/spaces/genai-impact/ecologits-calculator