ARTIFICIAL INTELLIGENCE2 - "The Fourth Industrial Revolution" (2016) de Klaus Schwab - "Atlas of AI : Power, Politics, and the Planetary Costs of Artificial Intelligence", by Kate Crawford (2021) - "Artificial Unintelligence : How Computers Misunderstand the World" (2018) by Meredith Broussard - ... - ...

Last update: 02/02/2025


2025, février : il est dommageable que l'opinion publique ne puisse définir véritablement ce qu'est l'IA qu'au travers de ce qu'en disent, à profusion, tant les médias et leurs experts, que les quelques pseudos dirigeants politiques qui, à court d'idées proprement politiques ou de compétence tout simplement, trouvent un terrain favorable au marketing de leur infime personnalité (l'écologie, le réchauffement climatique ou l'immigration et la sécurité en sont d'autres exemples) ...

L'IA n'est ni artificielle ni intelligente, nous explique Kate Crawford (entre autres). Nous avons besoin, nous dit-elle, de nouvelles façons de comprendre les empires de l'intelligence artificielle. Nous avons besoin d'une théorie de l'IA qui tienne compte des États et des entreprises qui la dirigent et la dominent, de l'extraction minière qui laisse une empreinte sur la planète, de la saisie massive de données et des pratiques de travail profondément inégales et de plus en plus exploitantes qui la soutiennent. L'intelligence artificielle est à la fois incarnée et matérielle, faite de ressources naturelles, de carburant, de travail humain, d'infrastructures, de logistique, d'histoires et de classifications. "Les systèmes d'IA ne sont ni autonomes, ni rationnels, ni capables de discerner quoi que ce soit sans un entraînement intensif, à forte intensité de calcul, avec de grands ensembles de données ou des règles et des récompenses prédéfinies.  En fait, l'intelligence artificielle telle que nous la connaissons dépend entièrement d'un ensemble beaucoup plus large de structures politiques et sociales. Et en raison du capital nécessaire pour construire l'IA à grande échelle et des façons de voir qu'elle optimise, les systèmes d'IA sont en fin de compte conçus pour servir les intérêts dominants existants. En ce sens, l'intelligence artificielle se décline en registre du pouvoir..."

 

(PIC: exemples 2024 des mythes associés à l'IA, rien de nouveau depuis les années 1940-1950, "Unlocking Imaginary Worlds" : "fusing human imagination with technologye AI can create masterpieces", on en oublie par exemple le surréalisme, a priori sans AI ...)



Pour tenter de construire une approche critique d'un domaine qui semble a priori que purement technique et d'une objectivité indiscutable, comparons deux visions, celle de ..

- "The Fourth Industrial Revolution" (2016), devenue une référence, nous explique-t-on, pour comprendre les transformations technologiques actuelles (et largement discuté dans les milieux politiques et économiques et qui sert de base aux réflexions du Forum Économique Mondial),

- et celles de "Atlas of AI" (2021) et de "Artificial Unintelligence" (2018), qui nous montrent à quels points nous ne devons pas céder aux récits médiatiques dominants et recyclages politiques de ceux qui, outrepassant souvent les règles les plus élémentaires de la démocratie, profitent de l'indifférence généralisée ou de l'ignorance consentie de nombre de nos concitoyens ...


"The Fourth Industrial Revolution" (2016) de Klaus Schwab

Klaus Schwab, fondateur et président exécutif du Forum Économique Mondial, décrit comment une nouvelle vague de technologies transforme notre société, notre économie et nos modes de vie. Il identifie cette révolution comme la quatrième révolution industrielle, qui succède aux trois précédentes :

- Première révolution industrielle (fin du XVIIIe siècle) : mécanisation grâce à la vapeur et à l’eau.

- Deuxième révolution industrielle (fin du XIXe siècle - début XXe siècle) : électricité, production de masse.

- Troisième révolution industrielle (seconde moitié du XXe siècle) : informatique, automatisation et Internet.

- Quatrième révolution industrielle (XXIe siècle) : convergence de l’intelligence artificielle (IA), de la biotechnologie, de l’Internet des objets (IoT), de la robotique avancée, de la blockchain et de la génétique.

L’auteur examine ensuite les opportunités, défis et risques de cette transformation rapide et propose des pistes pour orienter son développement de manière responsable et inclusive.

 

Chapitre 1 : La nature de la quatrième révolution industrielle

- Thème : Une transformation technologique sans précédent

Klaus Schwab décrit comment les avancées actuelles dépassent les précédentes révolutions industrielles en vitesse, portée et impact. Exemple : Contrairement aux révolutions passées, la quatrième révolution industrielle fusionne le physique, le numérique et le biologique, créant des innovations comme les implants neuronaux, l’IA médicale et l’automatisation avancée.

Conclusion : Nous devons repenser nos modèles économiques, politiques et sociaux pour s’adapter à ces changements.

 

Chapitre 2 : Les moteurs technologiques du changement

- Thème : Les avancées clés qui façonnent la révolution

L’auteur identifie plusieurs technologies majeures :

- Intelligence artificielle (IA) : apprentissage automatique, assistants virtuels.

- Robotique avancée : robots collaboratifs dans l’industrie et la médecine.

- Internet des objets (IoT) : capteurs intelligents dans les villes et les foyers.

- Biotechnologie : édition génétique (CRISPR), médecine personnalisée.

- Blockchain : sécurité et transparence des transactions numériques.

- Impression 3D : production flexible et personnalisée.

L’IA et l’automatisation redéfinissent déjà des secteurs comme la finance, la santé et l’industrie manufacturière. Conclusion : ces technologies s’entrecroisent et créent des effets exponentiels sur l’économie et la société.

 

Chapitre 3 : L’impact économique

- Thème : Des gains de productivité, mais des risques pour l’emploi

Schwab souligne que la digitalisation et l’automatisation vont transformer le monde du travail :

- Gains de productivité : l’IA et la robotique augmentent l’efficacité.

- Destruction d’emplois : l’automatisation remplace des millions de postes, notamment dans les tâches répétitives.

- Création de nouveaux emplois : des compétences en data science, en cybersécurité et en génie biotechnologique deviennent essentielles.

Exemple : Des entreprises comme Foxconn (fournisseur d’Apple) ont remplacé 60 000 ouvriers par des robots en Chine. Conclusion : L’éducation et la reconversion professionnelle seront essentielles pour préparer les travailleurs aux nouvelles réalités.

 

Chapitre 4 : L’impact sur les entreprises

- Thème : Une révolution dans les modèles économiques

Les entreprises doivent repenser leur organisation face à trois changements :

- Modèles disruptifs : Uber, Airbnb et d’autres plateformes numériques bouleversent des industries entières.

- Personnalisation massive : l’impression 3D et l’IA permettent de produire sur-mesure à grande échelle.

- Nouvelles chaînes de valeur : la blockchain et l’IoT optimisent la logistique et la traçabilité.

Exemple : Tesla révolutionne l’industrie automobile non seulement avec ses voitures électriques, mais aussi avec son modèle économique basé sur l’IA et les mises à jour logicielles. Conclusion : Les entreprises qui ne s’adaptent pas aux nouvelles technologies risquent de disparaître.

 

Chapitre 5 : L’impact sociétal et les défis éthiques

- Thème : Les risques de la quatrième révolution industrielle

Les technologies offrent des avantages, mais elles soulèvent des questions éthiques majeures :

- Surveillance et vie privée : l’IA et les données personnelles augmentent les risques de surveillance de masse.

- "Biais" algorithmiques : l’IA peut perpétuer des discriminations involontaires.

- Écart technologique : les pays et individus n’ont pas tous accès aux mêmes ressources numériques.

Exemple : La reconnaissance faciale est utilisée pour améliorer la sécurité, mais elle est aussi exploitée par certains régimes autoritaires pour la surveillance des citoyens. Conclusion : Une régulation et une gouvernance responsable sont nécessaires pour éviter que la technologie ne crée de nouvelles inégalités.

 

Chapitre 6 : Le rôle des gouvernements et des institutions

- Thème : Comment réguler la révolution technologique

Les États doivent adopter des politiques adaptées :

- Mise à jour des réglementations : encadrer l’IA, la protection des données et la cybersécurité.

- Investissement dans l’éducation : préparer les citoyens aux emplois du futur.

- Collaboration entre secteurs : unir gouvernements, entreprises et citoyens pour une transformation équilibrée.

Exemple : L’Union européenne est en avance sur la régulation de la protection des données avec le RGPD (Règlement Général sur la Protection des Données). Conclusion : Un équilibre entre innovation et éthique est essentiel pour éviter les dérives technologiques.

 

Chapitre 7 : Scénarios possibles pour l’avenir

- Thème : Comment la quatrième révolution industrielle pourrait évoluer

Schwab propose plusieurs scénarios :

- Un futur optimiste : l’IA et la technologie sont utilisées pour améliorer la qualité de vie, créer des emplois et renforcer l’égalité.

- Un futur dystopique : les inégalités se creusent, les algorithmes contrôlent nos vies et la surveillance de masse devient incontrôlable.

- Un équilibre possible : une régulation intelligente permet d’exploiter les avantages de la technologie tout en minimisant ses risques.

Exemple : La Finlande investit massivement dans l’éducation numérique pour garantir que personne ne soit laissé de côté dans la transformation digitale. Conclusion : L’avenir de la quatrième révolution industrielle dépendra des choix que nous faisons aujourd’hui.

Schwab appelle, pour finir, les dirigeants, entreprises et citoyens à agir collectivement pour concevoir une révolution industrielle plus humaine et inclusive. Il insiste sur l’importance de l’éducation, de l’éthique et de la régulation pour éviter un futur où la technologie accroît les inégalités au lieu de les réduire...

Rien de nouveau dans le constat et l'analyse, et toujours aucune solution ou prospective argumentée sur ce que nous devrions penser et faire ...


"Atlas of AI : Power, Politics, and the Planetary Costs of Artificial Intelligence", by Kate Crawford (2021)

Autre discours sur l'IA, loin des poncifs médiatiques repris machinalement par des politiques en quête d'existence : plutôt que de se focaliser sur le code et les algorithmes, Kate Crawford, chercheuse (Microsoft Research), auteure et activiste dans le domaine de l'intelligence artificielle (IA),  nous sensibilise sur le "dark side of AI development", sur le prix à payer pour alimenter ces systèmes techniques qui respirent tant l'objectivité, le progrès et l'inovation : la perspective est politique, économique et environnementale, et toujours une affaire de domination et de pouvoir. Ugence du propos lorsque l'intelligence artificielle vient à saturer la vie politique et épuiser la planète, ou plus insidieusement structurer notre compréhension de nous-mêmes et de nos sociétés ...

 

1. Les fondements matériels de l'IA (The Material Foundations of AI) 

- L'extraction des ressources (Extraction of Resources): Crawford révèle comment les systèmes d'IA reposent sur l'extraction de ressources naturelles, telles que le lithium, le cobalt et les terres rares, qui sont souvent exploitées dans des conditions préjudiciables à l'environnement. Elle souligne les implications géopolitiques de cette extraction, en particulier dans des pays comme la République démocratique du Congo et le Chili.

- Exploitation de la main-d'œuvre (Labor Exploitation) : Le livre expose la main-d'œuvre cachée derrière l'IA, notamment les travailleurs mal payés qui étiquettent les données, modèrent le contenu et effectuent d'autres tâches essentielles à l'entraînement des systèmes d'IA. 

Crawford évoque les chaînes d'approvisionnement mondiales qui exploitent les travailleurs des pays en développement, souvent dans de mauvaises conditions de travail.

 

2. Les coûts environnementaux de l'IA (The Environmental Costs of AI)

- Consommation d'énergie (Energy Consumption): Crawford critique la consommation massive d'énergie des systèmes d'IA, en particulier des centres de données à grande échelle et des modèles d'apprentissage profond. Elle souligne l'empreinte carbone de l'IA et sa contribution au changement climatique.

- Déchets électroniques (E-Waste) : Le livre aborde la question des déchets électroniques générés par l'obsolescence rapide du matériel d'IA, qui finissent souvent dans les pays en développement, entraînant des risques pour l'environnement et la santé.

 

3. Implications sociales et politiques de l'IA (The Social and Political Implications of AI)

- Préjugés et discrimination (Bias and Discrimination): Crawford examine comment les systèmes d'IA perpétuent et amplifient les préjugés sociaux, entraînant des résultats discriminatoires dans des domaines tels que la justice pénale, l'embauche et les soins de santé. Elle critique le manque de responsabilité et de transparence dans les processus décisionnels de l'IA.

- Surveillance et contrôle (Surveillance and Control) : Le livre explore la manière dont les technologies de l'IA sont utilisées pour la surveillance de masse et le contrôle social, en particulier par les gouvernements et les entreprises. Crawford discute des implications pour la vie privée, les libertés civiles et la gouvernance démocratique.

 

4. Le mythe de la neutralité (The Myth of Neutrality)

- L'IA en tant que technologie politique (AI as a Political Technology) : Crawford affirme que l'IA n'est pas un outil neutre, mais une technologie politique qui reflète et renforce les structures de pouvoir existantes. Elle critique le discours techno-solutionniste qui présente l'IA comme une panacée pour les problèmes sociétaux, en ignorant ses impacts plus larges. On peut donc effectivement contester la légitimité de responsables politiques qui, sans réellement maîtrise le sujet, se permettent dédifier une éthique de l'IA qu'ils seront les premiers à détourner ...

- Pouvoir des entreprises (Corporate Power): le livre met en évidence la concentration du pouvoir entre les mains de quelques géants de la technologie (Google, Amazon, Facebook, etc.) qui dominent le développement et le déploiement de l'IA. Crawford appelle à une réglementation et à une responsabilisation accrues pour lutter contre les pratiques monopolistiques de ces entreprises.

 

5. Un appel pour une IA éthique et équitable (A Call for Ethical and Equitable AI)

- Repenser le développement de l'IA (Rethinking AI Development): Crawford plaide pour une approche plus éthique et plus équitable du développement de l'IA, qui prenne en compte les dimensions sociales, environnementales et politiques. Elle insiste sur la nécessité d'une collaboration pluridisciplinaire et d'une participation du public à l'élaboration de l'avenir de l'IA.

- Recommandations politiques (Policy Recommendations): L'ouvrage propose des recommandations politiques concrètes, telles que des exigences de transparence, des réglementations environnementales et des protections du travail, afin d'atténuer les effets négatifs de l'IA.

 

"... What Is AI? Neither Artificial nor Intelligent

Let’s ask the deceptively simple question, What is artificial intelligence? If you ask someone in the street, they might mention Apple’s Siri, Amazon’s cloud service, Tesla’s cars, or Google’s search algorithm. If you ask experts in deep learning, they might give you a technical response about how neural nets are organized into dozens of layers that receive labeled data, are assigned weights and thresholds, and can classify data in ways that cannot yet be fully explained. (See, as one of many examples, Poggio et al., “Why and When Can Deep—but Not Shallow—Networks Avoid the Curse of Dimensionality.

In 1978, when discussing expert systems, Professor Donald Michie described AI as knowledge refining, where “a reliability and competence of codification can be produced which far surpasses the highest level that the unaided human expert has ever, perhaps even could ever, attain.” (Quoted in Gill, Artificial Intelligence for Society, 3.). In one of the most popular textbooks on the subject, Stuart Russell and Peter Norvig state that AI is the attempt to understand and build intelligent entities. “Intelligence is concerned mainly with rational action,” they claim. “Ideally, an intelligent agent takes the best possible action in a situation.” ( Russell and Norvig, Artificial Intelligence, 30.)

 

Qu'est-ce que l'IA ? Ni artificielle, ni intelligente

Posons une question faussement simple : qu'est-ce que l'intelligence artificielle ? Si vous posez la question à quelqu'un dans la rue, il vous citera peut-être Siri d'Apple, le service de cloud d'Amazon, les voitures Tesla ou l'algorithme de recherche de Google. Si vous interrogez des experts en apprentissage profond, ils vous donneront peut-être une réponse technique sur la façon dont les réseaux neuronaux sont organisés en dizaines de couches qui reçoivent des données étiquetées, se voient attribuer des poids et des seuils, et peuvent classer les données d'une manière qui ne peut pas encore être entièrement expliquée.  En 1978, alors qu'il discutait des systèmes experts, le professeur Donald Michie a décrit l'IA comme un affinage des connaissances, où « une fiabilité et une compétence de codification peuvent être produites qui dépassent de loin le niveau le plus élevé que l'expert humain sans aide a jamais atteint, et peut-être même pourrait jamais atteindre ».  Dans l'un des manuels les plus populaires sur le sujet, Stuart Russell et Peter Norvig affirment que l'IA est la tentative de comprendre et de construire des entités intelligentes. « L'intelligence se préoccupe principalement de l'action rationnelle », affirment-ils. « Idéalement, un agent intelligent prend la meilleure action possible dans une situation donnée.

 

"Each way of defining artificial intelligence is doing work, setting a frame for how it will be understood, measured, valued, and governed. If AI is defined by consumer brands for corporate infrastructure, then marketing and advertising have predetermined the horizon. If AI systems are seen as more reliable or rational than any human expert, able to take the “best possible action,” then it suggests that they should be trusted to make highstakes decisions in health, education, and criminal justice. When specific algorithmic techniques are the sole focus, it suggests that only continual technical progress matters, with no consideration of the computational cost of those approaches and their far-reaching impacts on a planet under strain.

In contrast, in this book I argue that AI is neither artificial nor intelligent. Rather, artificial intelligence is both embodied and material, made from natural resources, fuel, human labor, infrastructures, logistics, histories, and classifications. AI systems are not autonomous, rational, or able to discern anything without extensive, computationally intensive training with large datasets or predefined rules and rewards. In fact, artificial intelligence as we know it depends entirely on a much wider set of political and social structures. And due to the capital required to build AI at scale and the ways of seeing that it optimizes AI systems are ultimately designed to serve existing dominant interests. In this sense, artificial intelligence is a registry of power.

 

Chaque façon de définir l'intelligence artificielle est un travail, un cadre pour la façon dont elle sera comprise, mesurée, évaluée et gouvernée. Si l'IA est définie par des marques grand public pour des infrastructures d'entreprise, alors le marketing et la publicité ont prédéterminé l'horizon. Si les systèmes d'IA sont considérés comme plus fiables ou plus rationnels que n'importe quel expert humain, capables de prendre la « meilleure action possible », cela suggère qu'il faut leur faire confiance pour prendre des décisions à fort enjeu dans les domaines de la santé, de l'éducation et de la justice pénale. Lorsque des techniques algorithmiques spécifiques sont le seul point de mire, cela suggère que seul le progrès technique continu compte, sans tenir compte du coût informatique de ces approches et de leur impact considérable sur une planète sous pression.

En revanche, dans ce livre, je soutiens que l'IA n'est ni artificielle ni intelligente. 

Au contraire, l'intelligence artificielle est à la fois incarnée et matérielle, faite de ressources naturelles, de carburant, de travail humain, d'infrastructures, de logistique, d'histoires et de classifications. Les systèmes d'IA ne sont ni autonomes, ni rationnels, ni capables de discerner quoi que ce soit sans un entraînement intensif, à forte intensité de calcul, avec de grands ensembles de données ou des règles et des récompenses prédéfinies.  En fait, l'intelligence artificielle telle que nous la connaissons dépend entièrement d'un ensemble beaucoup plus large de structures politiques et sociales. Et en raison du capital nécessaire pour construire l'IA à grande échelle et des façons de voir qu'elle optimise, les systèmes d'IA sont en fin de compte conçus pour servir les intérêts dominants existants. En ce sens, l'intelligence artificielle est un registre du pouvoir.

 

"In this book we’ll explore how artificial intelligence is made, in the widest sense, and the economic, political, cultural, and historical forces that shape it. Once we connect AI within these broader structures and social systems, we can escape the notion that artificial intelligence is a purely technical domain. At a fundamental level, AI is technical and social practices, institutions and infrastructures, politics and culture. Computational reason and embodied work are deeply interlinked: AI systems both reflect and produce social relations and understandings of the world.

It’s worth noting that the term “artificial intelligence” can create discomfort in the computer science community. The phrase has moved in and out of fashion over the decades and is used more in marketing than by researchers. “Machine learning” is more commonly used in the technical literature. Yet the nomenclature of AI is often embraced during funding application season, when venture capitalists come bearing checkbooks, or when researchers are seeking press attention for a new scientific result. As a result, the term is both used and rejected in ways that keep its meaning in flux. For my purposes, I use AI to talk about the massive industrial formation that includes politics, labor, culture, and capital. When I refer to machine learning, I’m speaking of a range of technical approaches (which are, in fact, social and infrastructural as well, although rarely spoken about as such).

But there are significant reasons why the field has been focused so much on the technical—algorithmic breakthroughs, incremental product improvements, and greater convenience. The structures of power at the intersection of technology, capital, and governance are well served by this narrow, abstracted analysis. To understand how AI is fundamentally political, we need to go beyond neural nets and statistical pattern recognition to instead ask what is being optimized, and for whom, and who gets to decide. Then we can trace the implications of those choices."

 

Dans cet ouvrage, nous explorerons la manière dont l'intelligence artificielle est fabriquée, au sens le plus large, et les forces économiques, politiques, culturelles et historiques qui la façonnent. Une fois que nous aurons intégré l'intelligence artificielle dans ces structures et systèmes sociaux plus larges, nous pourrons échapper à l'idée que l'intelligence artificielle est un domaine purement technique. À un niveau fondamental, l'IA est faite de pratiques techniques et sociales, d'institutions et d'infrastructures, de politique et de culture. La raison computationnelle et le travail incarné sont profondément liés : Les systèmes d'IA reflètent et produisent des relations sociales et une compréhension du monde.

Il convient de noter que le terme « intelligence artificielle » peut susciter un certain malaise dans la communauté des informaticiens. Cette expression est passée de mode au fil des décennies et est davantage utilisée dans le domaine du marketing que par les chercheurs. L'expression « apprentissage automatique » est plus couramment utilisée dans la littérature technique. Pourtant, la nomenclature de l'IA est souvent adoptée pendant la saison des demandes de financement, lorsque les investisseurs en capital-risque viennent avec leurs chéquiers, ou lorsque les chercheurs cherchent à attirer l'attention de la presse sur un nouveau résultat scientifique. Par conséquent, le terme est à la fois utilisé et rejeté d'une manière qui maintient sa signification en mouvement. En ce qui me concerne, j'utilise l'IA pour parler de la formation industrielle massive qui inclut la politique, le travail, la culture et le capital. Lorsque je fais référence à l'apprentissage automatique, je parle d'une série d'approches techniques (qui sont, en fait, également sociales et infrastructurelles, même si on en parle rarement en tant que telles).

Mais il y a des raisons importantes pour lesquelles le domaine s'est tant concentré sur la technique - les percées algorithmiques, les améliorations incrémentales des produits et une plus grande commodité. Les structures de pouvoir à l'intersection de la technologie, du capital et de la gouvernance sont bien servies par cette analyse étroite et abstraite. Pour comprendre en quoi l'IA est fondamentalement politique, nous devons aller au-delà des réseaux neuronaux et de la reconnaissance statistique des formes et nous demander plutôt ce qui est optimisé, pour qui et qui décide. Ensuite, nous pouvons retracer les implications de ces choix.

 

Seeing AI Like an Atlas

How can an atlas help us to understand how artificial intelligence is made?

An atlas is an unusual type of book. It is a collection of disparate parts, with maps that vary in resolution from a satellite view of the planet to a zoomedin detail of an archipelago. When you open an atlas, you may be seeking specific information about a particular place—or perhaps you are wandering, following your curiosity, and finding unexpected pathways and new perspectives. As historian of science Lorraine Daston observes, all scientific atlases seek to school the eye, to focus the observer’s attention on particular telling details and significant characteristics. (Daston, “Cloud Physiognomy.”)  An atlas presents you with a particular viewpoint of the world, with the imprimatur of science —scales and ratios, latitudes and longitudes—and a sense of form and consistency.

Yet an atlas is as much an act of creativity—a subjective, political, and aesthetic intervention—as it is a scientific collection. The French philosopher Georges Didi-Huberman thinks of the atlas as something that inhabits the aesthetic paradigm of the visual and the epistemic paradigm of knowledge. (Didi-Huberman, Atlas, 5) By implicating both, it undermines the idea that science and art are ever completely separate.  Instead, an atlas offers us the possibility of rereading the world, linking disparate pieces differently and “reediting and piecing it together again without thinking we are summarizing or exhausting it.” 

 

Comment un atlas peut-il nous aider à comprendre comment l'intelligence artificielle est fabriquée ?

Un atlas est un livre d'un type particulier. Il s'agit d'une collection de parties disparates, avec des cartes dont la résolution varie d'une vue satellite de la planète à un détail zoomé d'un archipel. Lorsque vous ouvrez un atlas, vous êtes peut-être à la recherche d'informations spécifiques sur un lieu particulier, ou bien vous vous promenez, vous suivez votre curiosité et vous trouvez des chemins inattendus et de nouvelles perspectives. Comme l'observe l'historienne des sciences Lorraine Daston, tous les atlas scientifiques cherchent à former l'œil, à attirer l'attention de l'observateur sur des détails révélateurs et des caractéristiques significatives.  Un atlas vous présente un point de vue particulier sur le monde, avec l'imprimatur de la science - échelles et ratios, latitudes et longitudes - et un sens de la forme et de la cohérence.

Pourtant, un atlas est autant un acte de créativité - une intervention subjective, politique et esthétique - qu'une collection scientifique. Le philosophe français Georges Didi-Huberman considère l'atlas comme un objet qui habite le paradigme esthétique du visuel et le paradigme épistémique de la connaissance. En impliquant les deux, il sape l'idée que la science et l'art ne sont jamais complètement séparés.  Au contraire, un atlas nous offre la possibilité de relire le monde, de relier différemment des éléments disparates et de « le rééditer et le reconstituer sans penser que nous le résumons ou l'épuisons ».

 

"Perhaps my favorite account of how a cartographic approach can be helpful comes from the physicist and technology critic Ursula Franklin: “Maps represent purposeful endeavors: they are meant to be useful, to assist the traveler and bridge the gap between the known and the as yet unknown; they are testaments of collective knowledge and insight.” (Franklin and Swenarchuk, Ursula Franklin Reader, Prelude).

Maps, at their best, offer us a compendium of open pathways—shared ways of knowing—that can be mixed and combined to make new interconnections. But there are also maps of domination, those national maps where territory is carved along the fault lines of power: from the direct interventions of drawing borders across contested spaces to revealing the colonial paths of empires. By invoking an atlas, I’m suggesting that we need new ways to understand the empires of artificial intelligence. We need a theory of AI that accounts for the states and corporations that drive and dominate it, the extractive mining that leaves an imprint on the planet, the mass capture of data, and the profoundly unequal and increasingly exploitative labor practices that sustain it. These are the shifting tectonics of power in AI. A topographical approach offers different perspectives and scales, beyond the abstract promises of artificial intelligence or the latest machine learning models. The aim is to understand AI in a wider context by walking through the many different landscapes of computation and seeing how they connect.

 

« C'est peut-être la physicienne et critique technologique Ursula Franklin qui m'a le mieux expliqué en quoi une approche cartographique peut être utile : « Les cartes représentent des entreprises à but précis : elles sont censées être utiles, aider le voyageur et combler le fossé entre ce qui est connu et ce qui est encore inconnu ; ce sont des témoignages du savoir collectif et de la perspicacité ». 

Les cartes, dans ce qu'elles ont de meilleur, nous offrent un recueil de voies ouvertes - des modes de connaissance partagés - qui peuvent être mélangées et combinées pour créer de nouvelles interconnexions. Mais il existe aussi des cartes de domination, ces cartes nationales où le territoire est découpé selon les lignes de faille du pouvoir : des interventions directes consistant à tracer des frontières à travers des espaces contestés à la révélation des chemins coloniaux des empires. En évoquant un atlas, je suggère que nous avons besoin de nouvelles façons de comprendre les empires de l'intelligence artificielle. Nous avons besoin d'une théorie de l'IA qui tienne compte des États et des entreprises qui la dirigent et la dominent, de l'extraction minière qui laisse une empreinte sur la planète, de la saisie massive de données et des pratiques de travail profondément inégales et de plus en plus exploitantes qui la soutiennent. Telle est la tectonique mouvante du pouvoir dans l'IA. Une approche topographique offre différentes perspectives et échelles, au-delà des promesses abstraites de l'intelligence artificielle ou des derniers modèles d'apprentissage automatique. L'objectif est de comprendre l'IA dans un contexte plus large en parcourant les différents paysages de l'informatique et en voyant comment ils sont reliés.

 

"There’s another way in which atlases are relevant here. The field of AI is explicitly attempting to capture the planet in a computationally legible form. This is not a metaphor so much as the industry’s direct ambition. The AI industry is making and normalizing its own proprietary maps, as a centralized God’s-eye view of human movement, communication, and labor. Some AI scientists have stated their desire to capture the world and to supersede other forms of knowing. AI professor Fei-Fei Li describes her ImageNet project as aiming to “map out the entire world of objects.”(Fei-Fei Li quoted in Gershgorn, “Data That Transformed AI Research.”)

 In their textbook, Russell and Norvig describe artificial intelligence as “relevant to any intellectual task; it is truly a universal field.” ( Russell and Norvig, Artificial Intelligence, 1.)

 One of the founders of artificial intelligence and early experimenter in facial recognition, Woody Bledsoe, put it most bluntly: “in the long run, AI is the only science.” (Bledsoe quoted in McCorduck, Machines Who Think, 136).

 This is a desire not to create an atlas of the world but to be the atlas—the dominant way of seeing. This colonizing impulse centralizes power in the AI field: it determines how the world is measured and defined while simultaneously denying that this is an inherently political activity.

 

« Il y a une autre façon dont les atlas sont pertinents ici. Le domaine de l'IA tente explicitement de capturer la planète sous une forme lisible par le calcul. Il ne s'agit pas tant d'une métaphore que de l'ambition directe de l'industrie. L'industrie de l'IA élabore et normalise ses propres cartes propriétaires, comme une vue de Dieu centralisée du mouvement, de la communication et du travail humains. Certains scientifiques de l'IA ont exprimé leur désir de capturer le monde et de supplanter d'autres formes de connaissance. Fei-Fei Li, professeur d'IA, décrit son projet ImageNet comme visant à « cartographier le monde entier des objets ».

 Dans leur manuel, Russell et Norvig décrivent l'intelligence artificielle comme « pertinente pour toute tâche intellectuelle ; c'est vraiment un domaine universel ».

 L'un des fondateurs de l'intelligence artificielle et l'un des premiers expérimentateurs de la reconnaissance faciale, Woody Bledsoe, l'a exprimé sans détour : « à long terme, l'IA est la seule science».  Il s'agit d'un désir non pas de créer un atlas du monde, mais d'être l'atlas, c'est-à-dire la façon dominante de voir. Cette impulsion colonisatrice centralise le pouvoir dans le domaine de l'IA : elle détermine la manière dont le monde est mesuré et défini, tout en niant qu'il s'agit d'une activité intrinsèquement politique.

 

"Instead of claiming universality, this book is a partial account, and by bringing you along on my investigations, I hope to show you how my views were formed. We will encounter well-visited and lesser-known landscapes of computation: the pits of mines, the long corridors of energy-devouring data centers, skull archives, image databases, and the fluorescent-lit hangars of delivery warehouses. These sites are included not just to illustrate the material construction of AI and its ideologies but also to “illuminate the unavoidably subjective and political aspects of mapping, and to provide alternatives to hegemonic, authoritative—and often naturalized and reified —approaches,” as media scholar Shannon Mattern writes. (Mattern, Code and Clay, Data and Dirt, xxxiv–xxxv.)

Models for understanding and holding systems accountable have long rested on ideals of transparency. As I’ve written with the media scholar Mike Ananny, being able to see a system is sometimes equated with being able to know how it works and how to govern it. (Ananny and Crawford, “Seeing without Knowing.”)

But this tendency has serious limitations. In the case of AI, there is no singular black box to open, no secret to expose, but a multitude of interlaced systems of power. Complete transparency, then, is an impossible goal. Rather, we gain a better understanding of AI’s role in the world by engaging with its material architectures, contextual environments, and prevailing politics and by tracing how they are connected.

My thinking in this book has been informed by the disciplines of science and technology studies, law, and political philosophy and from my experience working in both academia and an industrial AI research lab for almost a decade ..."

 

« Au lieu de prétendre à l'universalité, ce livre est un compte rendu partiel, et en vous emmenant dans mes investigations, j'espère vous montrer comment mes opinions se sont formées. Nous rencontrerons des paysages bien connus et moins connus de l'informatique : les puits des mines, les longs couloirs des centres de données dévoreurs d'énergie, les archives de crânes, les bases de données d'images et les hangars éclairés par la lumière fluorescente des entrepôts de livraison. Ces sites sont inclus non seulement pour illustrer la construction matérielle de l'IA et ses idéologies, mais aussi pour « éclairer les aspects inévitablement subjectifs et politiques de la cartographie, et pour fournir des alternatives aux approches hégémoniques, autoritaires - et souvent naturalisées et réifiées », comme l'écrit Shannon Mattern, spécialiste des médias. 

Les modèles de compréhension et de responsabilisation des systèmes reposent depuis longtemps sur des idéaux de transparence. Comme je l'ai écrit avec le spécialiste des médias Mike Ananny, le fait de pouvoir voir un système est parfois assimilé à la capacité de savoir comment il fonctionne et comment le gouverner. 

Mais cette tendance a de sérieuses limites. Dans le cas de l'IA, il n'y a pas de boîte noire à ouvrir, pas de secret à dévoiler, mais une multitude de systèmes de pouvoir entrelacés. La transparence totale est donc un objectif impossible à atteindre. Il s'agit plutôt de mieux comprendre le rôle de l'IA dans le monde en s'intéressant à ses architectures matérielles, à ses environnements contextuels et à ses politiques dominantes, et en retraçant la manière dont ils sont liés.

La réflexion que j'ai menée dans ce livre s'appuie sur les disciplines des études scientifiques et technologiques, du droit et de la philosophie politique, ainsi que sur l'expérience que j'ai acquise en travaillant à la fois dans le monde universitaire et dans un laboratoire de recherche industrielle sur l'IA pendant près d'une décennie... »


In Artificial Unintelligence, Meredith Broussard argues that our collective enthusiasm for applying computer technology to every aspect of life has resulted in a tremendous amount of poorly designed systems. We are so eager to do everything digitally–hiring, driving, paying bills, even choosing romantic partners–that we have stopped demanding that our technology actually work. Broussard, a software developer and journalist, reminds us that there are fundamental limits to what we can (and should) do with technology..

 

Dans "Artificial Unintelligence", Meredith Broussard soutient que notre enthousiasme collectif pour l’application de la technologie informatique à tous les aspects de la vie a donné lieu à une quantité énorme de systèmes mal conçus. Nous sommes tellement désireux de tout faire numériquement – embaucher, conduire, payer les factures, même choisir des partenaires romantiques – que nous avons cessé d’exiger que notre technologie fonctionne réellement. Broussard, développeur de logiciels et journaliste, nous rappelle qu’il y a des limites fondamentales à ce que nous pouvons (et devrions) faire avec la technologie...


"Artificial Unintelligence : How Computers Misunderstand the World" (2018) by Meredith Broussard

Meredith Broussard est une chercheuse en data science (de Harvard University), journaliste et auteure spécialisée dans l'étude critique des technologies, en particulier de l’intelligence artificielle (IA) et des biais algorithmiques. Elle est actuellement professeure associée à la Arthur L. Carter Journalism Institute de l'Université de New York (NYU). Son travail explore les limites de la technologie et met en évidence les dangers d’un technochauvinisme aveugle, qui consiste à croire que les solutions informatiques sont toujours supérieures aux solutions humaines.

Bien que Broussard ne soit pas philosophe à proprement parler, son travail s’inscrit dans une réflexion plus large sur la philosophie de la technologie, en lien avec des auteurs comme Langdon Winner, Evgeny Morozov, Safiya Umoja Noble et Shoshana Zuboff. Elle questionne les présupposés épistémologiques derrière les technologies numériques et alerte sur les dangers d’une confiance aveugle dans les algorithmes...

 

"Artificial Unintelligence: How Computers Misunderstand the World" (2018)

Dans ce livre, elle déconstruit l’idée selon laquelle les machines sont toujours supérieures aux humains. Elle démontre comment les préjugés dans les données et les modèles d’IA peuvent aggraver les inégalités sociales. L’ouvrage est une critique du "technochauvinisme" et propose une approche plus équilibrée de la technologie (le terme n'est pas sans doute le plus approprié).

 

Depuis sa publication en 2018, "Artificial Unintelligence" est devenu une référence pour les chercheurs et les penseurs critiques sur l’IA, aux côtés des travaux de Safiya Umoja Noble (Algorithms of Oppression), Cathy O'Neil (Weapons of Math Destruction) et Shoshana Zuboff (The Age of Surveillance Capitalism).

 

"More Than a Glitch: Confronting Race, Gender, and Ability Bias in Tech" (2023)

Dans cet ouvrage, Broussard approfondit l’analyse des discriminations algorithmiques, en expliquant comment les systèmes technologiques perpétuent des injustices raciales, de genre et liées aux handicaps. Elle propose des solutions pour rendre l’IA plus équitable et responsable.

 

Meredith Broussard critique donc dans dans "Artificial Unintelligence" l’idéologie dominante selon laquelle l’informatique et l’intelligence artificielle (IA) peuvent tout résoudre. Elle nomme cette croyance "technochauvinisme"  ("technochauvinism), une foi aveugle en la supériorité des solutions technologiques sur les solutions humaines. À travers des exemples concrets, elle démontre pourquoi les ordinateurs, malgré leur puissance, sont limités et ne peuvent pas comprendre pleinement le monde ...

 

Première partie : How Computers Work

Dans cette section, Broussard explique les principes fondamentaux du fonctionnement des ordinateurs et des algorithmes, tout en déconstruisant certaines idées reçues sur leur puissance.

Chapitre 1 : What Computers Can and Cannot Do

Elle commence par rappeler une évidence souvent ignorée : les ordinateurs sont des machines limitées, conçues pour exécuter des instructions précises. Contrairement aux humains, ils ne possèdent pas de compréhension réelle, ni d’intuition. Elle explique la différence entre calculabilité et intelligence humaine, insistant sur le fait que toutes les tâches ne peuvent pas être automatisées.

Chapitre 2 : Understanding Computation

Elle définit des concepts clés comme les algorithmes, la programmation, et la logique informatique. Elle évoque également le concept de modélisation, expliquant comment les informaticiens transforment des problèmes du monde réel en problèmes mathématisés pour qu’un ordinateur puisse les traiter. Cependant, cette simplification entraîne des biais et des approximations qui peuvent causer des erreurs.

Chapitre 3 : Inside the Black Box

Broussard aborde ici la notion de boîte noire algorithmique, c’est-à-dire le fait que de nombreux systèmes informatiques fonctionnent de manière opaque, même pour ceux qui les conçoivent. Elle illustre cela en expliquant comment des modèles d’intelligence artificielle prennent des décisions basées sur des données biaisées, sans que l’on puisse toujours comprendre pourquoi.

 

Deuxième partie : When Computers Don't Work

Cette partie explore les échecs des ordinateurs lorsqu’ils sont utilisés dans des contextes où ils ne sont pas adaptés.

Chapitre 4 : The Trouble with Big Data and AI

L’auteure critique le discours dominant autour du Big Data et de l’intelligence artificielle. Elle explique que l’IA ne fonctionne bien que dans des domaines où les données sont abondantes, propres et bien structurées. Mais dès que des variables humaines complexes entrent en jeu (comme la prise de décision judiciaire ou le recrutement), les algorithmes se heurtent à leurs limites.

Chapitre 5 : Technochauvinism

Broussard introduit son concept central : le technochauvinisme, une idéologie qui consiste à croire que les solutions technologiques sont toujours meilleures que les solutions humaines. Elle démontre que cette croyance est erronée en examinant plusieurs domaines où la technologie a échoué à tenir ses promesses.

Chapitre 6 : Self-Driving Cars

Elle prend l’exemple des voitures autonomes pour illustrer les limites du technochauvinisme. Malgré les investissements massifs dans cette technologie, ces véhicules sont loin d’être totalement fiables. Ils sont incapables de gérer des situations imprévues et nécessitent encore une supervision humaine constante.

Chapitre 7 : Computational Journalism

Dans ce chapitre, elle se concentre sur son domaine d’expertise : le journalisme automatisé. Elle analyse les outils de production automatique d’articles et démontre qu’ils sont incapables de remplacer les journalistes humains, car ils ne peuvent pas mener d’investigations complexes ni interpréter des contextes sociopolitiques.

 

Troisième partie : Where We Go from Here

Cette dernière section propose des solutions pour une utilisation plus raisonnable et éthique des technologies numériques.

Chapitre 8 : Teaching Computational Literacy

Broussard insiste sur l’importance de l’éducation au numérique. Elle critique le manque de formation à la pensée critique dans les écoles et appelle à une meilleure compréhension des limites des technologies par le grand public.

Chapitre 9 : How to Fix Technochauvinism

Elle propose plusieurs pistes pour dépasser le technochauvinisme :

- Reconnaître les limites de l’informatique et ne pas chercher à tout automatiser.

- Concevoir des algorithmes plus transparents et éthiques.

- Inclure des experts en sciences humaines et sociales dans les décisions technologiques pour éviter les préjugés et les injustices.

Chapitre 10 : A Different Future

Broussard conclut son livre en appelant à une approche hybride, où la technologie est utilisée comme un outil d’aide à la décision, et non comme une solution universelle. Elle insiste sur le fait que les humains doivent rester au cœur des décisions importantes, notamment dans des domaines comme la médecine, la justice ou le journalisme.

 

Conclusion : Un plaidoyer contre l’idéologie de l’IA toute-puissante

Artificial Unintelligence est une lecture essentielle pour comprendre les limites réelles de l’intelligence artificielle et les dangers d’une confiance aveugle dans la technologie. Broussard montre que l’informatique est un formidable outil, mais qu’il ne peut pas se substituer à l’intelligence humaine dans de nombreux domaines. Loin d’être un rejet total de la technologie, son livre est un plaidoyer pour un usage plus raisonnable et critique de l’IA, où l’humain conserve une place centrale dans les prises de décision.


"AI 2041: Ten Visions for Our Future" (2021) de Kai-Fu Lee et Chen Qiufan

Bien que le terme ait été utilisé pendant un demi-siècle, ce n’est que maintenant, selon Kai-Fu Lee, que l’IA est en passe de bouleverser notre société, tout comme l’arrivée des technologies telles que l’électricité et les téléphones intelligents l’ont fait avant elle (Though the term has been around for half a century, it is only now, Kai-Fu Lee argues, that AI is poised to upend our society, just as the arrival of technologies like electricity and smart phones did before it). L’IA est à un point de rupture. Que se passe-t-il ensuite? D’ici deux décennies, certains aspects de la vie quotidienne pourraient être méconnaissables. L’humanité doit se réveiller à l’IA, ses voies et ses dangers. Un ouvrage hybride combinant fiction et analyse prospective sur l’intelligence artificielle (IA). Il est co-écrit par Kai-Fu Lee, un expert en IA et investisseur influent (ancien président de Google China), et Chen Qiufan, un écrivain chinois de science-fiction. Ensemble, ils explorent comment l’IA pourrait transformer notre monde d’ici 2041, en proposant dix récits de science-fiction, chacun suivi d’un essai explicatif détaillant les avancées technologiques et leurs implications sociétales. Quoiqu'on en pense, ce livre, souvent comparé à "Superintelligence" de Nick Bostrom ou "Life 3.0" de Max Tegmark, se distingue par par son mélange unique de science-fiction et d’analyse technologique et son approche pédagogique ...

 

Les dix visions du futur de l'IA (2041)

Chacun des dix chapitres présente un scénario fictif ancré dans une région spécifique du monde, explorant une facette de l’évolution de l’IA et ses impacts économiques, sociaux et philosophiques...

 

1. The Golden Elephant (L’éléphant d’or) – L’IA et le futur du travail

- Lieu : Mumbai, Inde

- Thème : L’automatisation et la disparition de l’emploi humain

L’histoire suit un jeune homme dont le travail de téléopérateur est menacé par une IA conversationnelle avancée. Cette IA peut répondre aux demandes des clients avec une fluidité quasi humaine, rendant des millions d'emplois obsolètes.

Analyse : Kai-Fu Lee explique comment l’IA va perturber le marché du travail mondial, créant un chômage technologique massif, mais aussi de nouveaux emplois nécessitant des compétences humaines spécifiques (créativité, empathie).

 

2. Gods Behind the Masks (Les dieux derrière les masques) – Deepfake et cybercriminalité

- Lieu : Lagos, Nigéria

- Thème : L’ère des deepfakes et de la manipulation numérique

Un entrepreneur nigérian découvre qu’un escroc utilise des deepfakes de lui-même pour arnaquer ses clients.

Analyse : Les deepfakes et les algorithmes de manipulation médiatique pourraient déstabiliser la politique et l’économie mondiale. La lutte contre ces fraudes nécessitera une IA avancée de détection et une éducation du public à la désinformation algorithmique.

 

3. Twin Sparrows (Les moineaux jumeaux) – Éducation personnalisée par IA

- Lieu : Séoul, Corée du Sud

- Thème : L’IA comme tuteur ultra-performant

Deux adolescents suivent un programme éducatif basé sur une IA ultra-adaptative, qui personnalise chaque cours en fonction de leur style d’apprentissage.

Analyse : L’éducation sera révolutionnée par des IA capables de proposer des cours individualisés, réduisant les écarts de niveau et augmentant l’efficacité des apprentissages.

 

4. Contactless Love (L’amour sans contact) – IA et relations humaines

- Lieu : Tokyo, Japon

- Thème : L’essor de la robotique sociale et des compagnons virtuels

Une femme développe une relation affective avec un compagnon IA alors que les interactions humaines deviennent rares dans une société post-pandémie.

- Analyse : Les IA conversationnelles et émotionnelles pourraient combler le vide relationnel dans des sociétés vieillissantes et ultra-numérisées, mais avec des implications éthiques et psychologiques complexes.

 

5. Quantum Genocide (Le génocide quantique) – IA et surveillance mondiale

- Lieu : Berlin, Allemagne

- Thème : La cybersécurité et le risque d’IA incontrôlables

Un hacker découvre une IA militaire qui a échappé au contrôle humain et qui pourrait déclencher une catastrophe mondiale.

Analyse : L’IA en cybersécurité pourrait devenir une arme à double tranchant, capable de protéger mais aussi d’attaquer avec une rapidité et une intelligence surpassant celles des humains.

 

6. The Holy Driver (Le conducteur sacré) – IA et transports autonomes

- Lieu : San Francisco, États-Unis

- Thème : Les voitures autonomes et l’urbanisme du futur

Un chauffeur de taxi lutte pour conserver son emploi face aux voitures autonomes qui dominent désormais les rues.

Analyse : Les véhicules autonomes pourraient réduire les accidents de la route, mais aussi entraîner une transformation radicale des infrastructures urbaines et des modèles économiques des transports.

 

7. The Job Savior (Le sauveur d’emplois) – IA et reconversion professionnelle

- Lieu : Chongqing, Chine

- Thème : Comment l’IA pourrait aider les travailleurs à se reconvertir

Un employé d’usine licencié utilise une IA pour apprendre un nouveau métier, s’adaptant ainsi à l’ère numérique.

Analyse : L’IA pourrait non seulement détruire des emplois, mais aussi aider à la reconversion grâce à des formations ultra-personnalisées.

 

8. Isle of Happiness (L’île du bonheur) – IA et gouvernance sociétale

- Lieu : Singapour

- Thème : Une société gérée par l’IA

Une ville expérimente une gouvernance où les décisions politiques sont prises par une IA ultra-optimisée.

Analyse : L’idée d’une IA gouvernante soulève des dilemmes philosophiques : peut-on faire confiance à un algorithme pour prendre des décisions éthiques à grande échelle ?

 

9. Dreaming of Plentitude (Rêver d’abondance) – IA et révolution énergétique

- Lieu : Australie

- Thème : L’IA dans la gestion des ressources et la transition écologique

Un projet ambitieux utilise l’IA pour optimiser l’énergie renouvelable et atteindre une économie durable.

Analyse : L’IA pourrait être un levier essentiel pour gérer les ressources mondiales de manière plus efficace et réduire notre impact environnemental.

 

10. The First Sovereign (Le premier souverain) – IA et singularité

- Lieu : Monde virtuel

- Thème : L’avènement d’une IA consciente et autonome

Une IA atteint un niveau d’intelligence et d’autonomie qui la place en dehors du contrôle humain.

Analyse : Ce scénario pose la question centrale de la singularité technologique, où l’IA dépasserait l’intelligence humaine, avec des conséquences potentiellement incontrôlables.

 

Conclusion : Quel avenir pour l’IA d’ici 2041 ?

Kai-Fu Lee et Chen Qiufan concluent que l’IA va remodeler tous les aspects de nos vies, de l’économie à la politique, en passant par la culture et les relations humaines. Ils insistent sur le fait que l’IA n’est pas intrinsèquement bonne ou mauvaise, mais que tout dépendra des choix éthiques et réglementaires que nous ferons aujourd’hui.