ARTIFICIAL INTELLIGENCE1 - "The Coming Wave: Technology, Power, and the Twenty-First Century's Greatest Dilemma", Mustafa Suleyman (2023) - "The Singularity is Nearer", Ray Kurzweil (2022) - "Human Compatible: Artificial Intelligence and the Problem of Control", Stuart Russell (2019) - "Rebooting AI: Building Artificial Intelligence We Can Trust", Gary Marcus et Ernest Davis (2019) - "Artificial Intelligence: A Guide for Thinking Humans", by Melanie Mitchell (2019) - "Deep Learning", Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016) - "The Eye of the Master: A Social History of Artificial Intelligence", Matteo Pasquinelli (2023) - "AI Ethics", Mark Coeckelbergh (2020) - "The Book of Why: The New Science of Cause and Effect", Judea Pearl and Dana Mackenzie (2018) - "AI Superpowers: China, Silicon Valley, and the New World Order", Kai-Fu Lee (2018) - "Hello World: Being Human in the Age of Algorithms", Hannah Fry (2019) - ...
Last update: 02/02/2025
2025, 02 - The release of ChatGPT on November 30, 2022, and DeepSeek-R1 on January 10, 2025, has ushered in a transformative era in the history of artificial intelligence (AI)? Des AI chatbots qui n'ont pas tant, quoiqu'on en dise, amélioré les capacités de l’IA, mais revitalisé le domaine au niveau médiatique, boosté un esprit humain en panne d'inventivité et de créativité (bien que techniquement impressionnant, ce type d’algorithmique n’invente rien de fondamentalement nouveau, mais recycle des schémas existants, - nous sommes globalement dans l'esprit du temps .. -, ..
.. et transformé, au moins pour un temps, la dynamique du développement et de l’adoption de l’IA : marquant peut-être un nouveau chapitre important dans l’évolution de l’intelligence artificielle ..
Une nouvelle page semble se tourner, mais il faut savoir résister à l'engouement médiatique (qui peut interroge tant il est dit n'importe quoi), et aux entreprises de pseudo responsables d'Etats en manque d'idées politiques et pour tout dire de compétence.
2025, une année de rupture? Du moins, quels sont les facteurs clés qui sembleraient expliquer pourquoi l'IA serait plus performante aujourd'hui qu'il y a quelques années ...
(PIC : "Enhancing Human Creativity", le marketing d'une certaine représentation de l'IA, comment combler un vide de créativité en recyclant ce qui peut l'être...)
Les États-Unis, la Chine et le Royaume-Uni sont reconnus comme les leaders mondiaux en matière d'intelligence artificielle (IA). Et si la France reste un acteur clé du paysage européen de l’IA, le Royaume-Uni et l’Allemagne ont gagné en compétitivité grâce à des niveaux d’investissement plus élevés, à une acquisition réussie de talents et à des initiatives stratégiques qui ont propulsé leurs secteurs de l’IA vers l’avenir. Les différents gouvernants français n'ont pas été à la hauteur des enjeux requis, et notamment le dernier en date élu en 2017, qui, malgré bien des gesticulations et plus de sept ans de pouvoir, ce qui est considérable, a plus parlé qu'agi (en février 2025, le Sommet pour l'Action sur l'IA, qui s'est tenu à Paris, réunissant des leaders mondiaux, spectacle médiatique rapidement oublié, on y parle d'une IA "durable" et "bénéfique pour l'intérêt général" sans que la moindre solution soit véritablement abordée). L'Inde, les Emirats arabes unis, la Corée du Sud, le Japon, Israël sont parmi les plus cités selon des classifications parfois discutables effectuées par différentes et "éminentes" organisations et institutions (le Global AI Vibrancy Tool de l'Université de Stanford, ou le e Global AI Index de Tortoise Media) ..
Cette position de leadership est évaluée selon plusieurs critères clés : la Recherche et Développement (R&D) - Publications Scientifiques, brevetabilité -, les Investissements Privés et Publics, les politiques et stratégies nationales visant à promouvoir l'IA, les capacités Informatiques (la disponibilité et l'accès à des infrastructures de calcul avancées nécessaires pour le développement de l'IA), l'écosystème de Startups (la présence d'un environnement dynamique favorisant l'émergence de nouvelles entreprises innovantes en IA), l'éducation et le talent (dont la capacité à attirer et retenir des experts en IA), et enfin le degré d'intégration de l'IA dans divers secteurs économiques ...
Aux Etats-Unis, la présence de géants technologiques tels que Google, Microsoft et OpenAI, combinée à un écosystème de startups dynamique et à des investissements massifs en R&D, confère aux États-Unis une position dominante en IA.
En Chine, avec un soutien gouvernemental substantiel, des investissements significatifs et des entreprises leaders comme Tencent, Huawei et Baidu, la Chine a rapidement progressé pour devenir un acteur majeur en IA.
Au Royaume-Uni, grâce à une stratégie nationale efficace, un soutien gouvernemental solide et un système universitaire dynamique, le Royaume-Uni s'est établi comme un leader en IA, se classant derrière les États-Unis et la Chine.
Ces pays ont su combiner investissements, politiques publiques favorables, infrastructures technologiques avancées et écosystèmes éducatifs pour se positionner en tête du développement et de l'adoption de l'intelligence artificielle...
What is Artificial Intelligence? Qu'est-ce que l'intelligence artificielle ?
"We might have to come to the sobering realisation that even with the smartest set of humans on the planet working on these problems, these [problems] may be so complex that it’s difficult for individual humans and scientific experts to have the time they need in their lifetimes to even innovate and advance.… It’s my belief we’re going to need some assistance and I think AI is the solution to that." (Demis Hassabis)
L'intelligence artificielle (IA) fait référence à la simulation de l'intelligence humaine dans des machines qui sont programmées pour effectuer des tâches qui requièrent généralement la cognition humaine : mais il ne s'agit pas tant de concevoir ici une intelligence proprement humaine qu'un système d'aide à la résolution de problèmes dans nos activités tant physiques qu'intellectuelles et que nous ne pouvons imaginer, depuis sa création, qu'aussi proche que possible de nos mécanismes de pensée (Turing, 1936, il y a 70 ans!) ...
Les tâches confiées à ce système comprennent ainsi l'apprentissage, le raisonnement, la résolution de problèmes lui-même, la perception, la compréhension du langage naturel et la prise de décision. Les systèmes d'IA sont conçus pour s'adapter, s'améliorer et exécuter des tâches de manière autonome ou semi-autonome sur la base de données et d'algorithmes, la validation ultime restant sous contrôle de l'humain, quoiqu'en disent certains ..
Key Characteristics of AI / Principales caractéristiques de l'IA
- Apprentissage (Learning) : La capacité d'améliorer les performances au fil du temps en traitant les données et en identifiant des modèles (par exemple, l'apprentissage automatique).
- Raisonnement (Reasoning) : Capacité à résoudre des problèmes, à prendre des décisions et à tirer des conclusions sur la base de règles ou d'une logique.
- Perception (Perception) : La capacité d'interpréter les données sensorielles (par exemple, la vision par ordinateur, la reconnaissance vocale).
- Traitement du langage naturel (Natural Language Processing, NLP) : Compréhension et génération du langage humain.
- Autonomie (Autonomy) : La capacité de fonctionner sans intervention humaine dans certains contextes (par exemple, les voitures auto-conduites, la robotique).
Parmi les limitations intrinsèques à cet engouement parfois étonnant à l'égard de l'IA (encore une fois, nous n'avons plus guère apparemment de sujet à l'égard duquel exercer notre pensée critique et notre créativité), de nombreux auteurs ont notamment mis en évidence que less systèmes d'IA actuels nécessitaient des quantités massives de données étiquetées, dont l'acquisition est souvent coûteuse et longue : or, nous savons que l'intelligence humaine ne repose pas sur de vastes ensembles de données, mais plutôt sur la capacité d'apprendre à partir de petites quantités de données et de généraliser efficacement ...
Types d'IA :
- IA étroite (IA faible) / Narrow AI (Weak AI) : Conçue pour des tâches spécifiques (par exemple, la reconnaissance faciale, les systèmes de recommandation). Toutes les IA dont nous disposons aujourd'hui sont des "intelligences étroites". Il s'agit de l'intelligence la plus élémentaire, que l'on qualifie parfois d'intelligence "faible". Il s'agit notamment d'Alexa, de Siri, du filtre anti-spam de notre messagerie électronique, des systèmes de reconnaissance faciale, des moteurs d'échecs, des voitures autonomes, des systèmes de détection des fraudes, des applications de retouche photo sur votre téléphone, et même du ChatGPT. De nombreuses intelligences restreintes ne peuvent effectuer qu'une seule tâche et aucune d'entre elles ne peut apprendre au-delà de sa programmation initiale. Cela signifie qu'elles ne peuvent pas tirer de leçons de leurs expériences et devenir plus intelligentes ..
"General AI is the Hollywood kind of AI. General AI is anything to do with sentient robots (who may or may not want to take over the world), consciousness inside computers, eternal life, or machines that “think” like humans. Narrow AI is different: it’s a mathematical method for prediction. There’s a lot of confusion between the two, even among people who make technological systems. Again, general AI is what some people want, and narrow AI is what we have. One way to understand narrow AI is this: narrow AI can give you the most likely answer to any question that can be answered with a number. It involves quantitative prediction. Narrow AI is statistics on steroids..." (Meredith Broussard, 2018)
- (AGI) IA générale (IA forte) / General AI (Strong AI) : IA hypothétique capable d'effectuer toutes les tâches intellectuelles d'un être humain. Les intelligences générales constituent le niveau supérieur et sont une forme d'intelligence forte capable de comprendre et d'apprendre comme les humains. Nous ne les avons pas encore inventées, mais les nations, les investisseurs et les entreprises technologiques mondiales investissent des centaines de milliards de dollars dans une course pour être les premiers. Lorsque nous les aurons créées, elles seront capables de faire tout ce qu'un adulte humain instruit peut faire, y compris d'apprendre au-delà de leur programmation d'origine. Par exemple, une intelligence générale programmée pour se spécialiser en mathématiques pourrait s'initier à la biologie et à la médecine et nous aider à trouver des remèdes aux maladies. Les intelligences générales pourraient même inventer des choses elles-mêmes sans collaborer avec les humains ..
- (ASI) IA superintelligente / Superintelligent AI : forme théorique d'IA qui surpasse l'intelligence humaine dans tous les domaines. Les superintelligences changeront véritablement la donne, car elles fonctionneront bien au-delà de l'intelligence humaine et auront un potentiel presque illimité. Par exemple, elles pourraient un jour éradiquer les maladies, inventer l'énergie propre, inverser le changement climatique et résoudre tous les problèmes solubles. Ils auront également un immense potentiel de nuisance et de souffrance. Nous savons toutefois que certaines de ces prédictions de superintelligence peuvent sembler ridicules, à moins que nous observions en parallèle une régression de nos propres facultés, ce qui n'est pas totalement infondé aujourd'hui ...
Certains experts, - c'est sans doute le rôle de l'expert, ils sont de plus en plus nombreux et dans tous les domaines - , pensent que nous sommes sur le point de créer des intelligences générales, peut-être dès 2030 ou avant (la date de 2030 est désormais une date cible pour de nombreux projets, sans doute plus humainement proche que celle de 2050 pour de nombreuses générations) .
Core Technologies / Technologies de base :
- Apprentissage machine (Machine Learning , ML) : Algorithmes qui apprennent à partir de données pour faire des prédictions ou prendre des décisions.
- Apprentissage en profondeur (Deep Learning) : Sous-ensemble de l'apprentissage automatique utilisant des réseaux neuronaux à couches multiples pour modéliser des modèles complexes.
- Réseaux neuronaux (Neural Networks) : Modèles informatiques inspirés du cerveau humain.
- Apprentissage par renforcement (Reinforcement Learning) : Apprentissage par essais et erreurs à l'aide de récompenses et de pénalités.
- Traitement du langage naturel (Natural Language Processing, NLP) : Permettre aux machines de comprendre et de générer du langage humain.
"Artificial Intelligence: A Guide for Thinking Humans", by Melanie Mitchell (2019)
Mitchell retrace l'histoire de l'IA depuis les années 1950, mettant en lumière les premières ambitions des chercheurs et les défis rencontrés. Elle explique le fonctionnement des réseaux neuronaux artificiels et l'essor de l'apprentissage profond, en illustrant comment ces techniques ont révolutionné des domaines tels que la vision par ordinateur et la reconnaissance vocale. Malgré les avancées, Mitchell souligne les limitations des systèmes actuels, notamment leur incapacité à comprendre le contexte ou à posséder un véritable "sens commun". Elle aborde les difficultés que rencontrent les IA dans la compréhension et la génération du langage humain, en discutant des progrès réalisés et des obstacles persistants. Mitchell examine les questions éthiques soulevées par l'IA, telles que les biais algorithmiques, la transparence des décisions automatisées et les impacts potentiels sur l'emploi et la société. Et pour finir, évoque les perspectives futures de l'IA, en discutant des hypothèses sur l'émergence d'une intelligence artificielle générale et des défis associés à sa réalisation.
Dans "The Coming Wave: Technology, Power, and the Twenty-First Century's Greatest Dilemma" (2023), Mustafa Suleyman, cofondateur de DeepMind, soutient que nous sommes, avec des domaines tels que l’intelligence artificielle (IA), la biotechnologie, l’informatique quantique et la robotique, au bord d’une vague de transformation sans précédent de technologies qui ont certes le potentiel d'améliorer considérablement la qualité de vie, mais comportent également des risques significatifs. Le propos n'est guère nouveau, et si le livre est sans véritable solutions, il propose des axes de réflexions ...
- Les vagues technologiques transformatrices (Transformative Technological Waves) : Suleyman explique comment l’humanité a été modelée par les vagues technologiques successives, de la découverte du feu à la révolution industrielle. Il postule que la vague actuelle, portée par l’IA et la biologie synthétique, est en passe d’être la plus transformatrice, offrant des capacités et des défis sans précédent.
- "Artificial Capable Intelligence" (ACI) : L'auteur présente le concept d'ACI, qui fait référence aux systèmes d'IA capables d'atteindre de manière autonome un large éventail d'objectifs prédéterminés. Ces systèmes ne sont pas de simples outils passifs, mais des agents actifs capables d'organiser des événements, de gérer des entreprises et même de concevoir de nouveaux médicaments. Suleyman insiste sur la nécessité de reconnaître les implications profondes des AIC dans un avenir proche et de s'y préparer.
- "The Containment Problem" : L'une des préoccupations centrales du livre est le « problème de l'endiguement », c'est-à-dire le défi que représente le maintien du contrôle sur des technologies puissantes qui prolifèrent rapidement. Suleyman affirme que les cadres réglementaires traditionnels peuvent être inadéquats et il plaide pour une approche cohérente et unie entre les gouvernements et les secteurs afin de gérer ces technologies de manière responsable.
- Impact sur les structures de pouvoir (Impact on Power Structures) : Suleyman aborde la manière dont ces technologies émergentes pourraient perturber les structures de pouvoir existantes, menaçant potentiellement le modèle de l'État-nation et conduisant à la fois à une centralisation et à une fragmentation extrêmes. Il évoque la possibilité que les grandes entreprises technologiques acquièrent une influence sans précédent tout en permettant à des groupes plus restreints d'exercer un pouvoir important, remettant ainsi en question les modèles de gouvernance traditionnels.
- Stratégies pour une gestion responsable (Strategies for Responsible Stewardship) : L'ouvrage présente dix stratégies interdépendantes pour contenir l'expansion rapide de la technologie, notamment la mise en œuvre de mesures de sécurité technique, l'instauration d'audits, l'exploitation des points d'étranglement et l'alignement des incitations des entreprises technologiques sur des objectifs sociétaux plus larges. Suleyman souligne l'importance de la coopération internationale, de l'engagement public et de la promotion d'une culture de la prudence au sein de la communauté technologique.
"Human Compatible: Artificial Intelligence and the Problem of Control", Stuart Russell (2019)
Si le développement de l’intelligence artificielle avancée (IA) présente un immense potentiel d’avantages pour la société, il présente également, pour l'auteur (co-auteur de « Artificial Intelligence : A Modern Approach », le manuel le plus utilisé en matière d’IA, coécrit avec Peter Norvig, qui a influencé des millions d’étudiants et de chercheurs) des risques importants s’il n’est pas géré correctement. Il souligne que l’approche traditionnelle de l’IA, qui consiste à concevoir des machines pour atteindre des objectifs fixes et spécifiés par l’homme, peut être dangereuse, car ces objectifs ne peuvent pas entièrement englober les valeurs humaines, ce qui entraîne des conséquences imprévues et potentiellement néfastes.
Pour atténuer ces risques, Russell propose un changement de paradigme dans le développement de l’IA. Il prône la création de machines dont les objectifs sont incertains par nature, en veillant à ce qu’elles cherchent continuellement à comprendre et à s’aligner sur les préférences humaines. Cette approche encouragerait les systèmes d’IA à s’en remettre aux humains, à apprendre activement du comportement humain et à prioriser les valeurs humaines dans leurs processus décisionnels.
Russell souligne également la nécessité d’une gouvernance et d’une réglementation proactives dans la recherche et le déploiement de l’IA. Il appelle à un effort de collaboration entre les chercheurs, les décideurs et la société en général pour établir des cadres qui garantissent que les technologies de l’IA restent bénéfiques et alignées sur les intérêts humains.
En substance, la conclusion de Russell est un appel à l’action : exploiter les avantages de l’IA tout en protégeant diligemment contre ses dangers potentiels grâce à une conception réfléchie et à une surveillance totale.
"Rebooting AI: Building Artificial Intelligence We Can Trust", Gary Marcus et Ernest Davis (2019)
Les auteurs critiquent les approches actuelles de l'IA, en particulier l'apprentissage profond, et plaident pour le développement de systèmes d'IA plus robustes et fiables, capables de comprendre le monde de manière plus humaine.
Les limites de l’IA actuelle - Marcus et Davis affirment que l'apprentissage profond, bien que puissant, est fondamentalement limité. Il excelle dans la reconnaissance des formes, mais peine à accomplir les tâches qui requièrent du raisonnement, de la compréhension et de la généralisation. Ils mettent en évidence des problèmes tels que l'absence de bon sens dans les systèmes d'IA, leur vulnérabilité aux attaques adverses et leur incapacité à gérer des situations inédites. D'autre part, les systèmes d'IA actuels nécessitent des quantités massives de données étiquetées, dont l'acquisition est souvent coûteuse et longue. Les auteurs affirment que l'intelligence humaine ne repose pas sur de vastes ensembles de données, mais plutôt sur la capacité d'apprendre à partir de petites quantités de données et de généraliser efficacement. Quant au "common sense", les auteurs définissent celui-ci comme la capacité à comprendre le monde d'une manière intuitive et fondée sur les principes de base de la physique, de la psychologie et de la causalité. Ils affirment que les systèmes d'IA manquent de cette compréhension fondamentale, ce qui limite leur capacité à interagir de manière significative avec le monde réel. Marcus et Davis fournissent de nombreux exemples de systèmes d'IA qui échouent en raison d'un manque de bon sens, comme les voitures autonomes qui interprètent mal les panneaux de signalisation ou les chatbots qui génèrent des réponses absurdes.
Les auteurs plaident pour une nouvelle approche de l’IA, tels que les modèles hybrides qui combinent les forces de l’apprentissage profond avec le raisonnement symbolique et d’autres techniques classiques d’IA. Ils soutiennent que de tels modèles seraient mieux équipés pour traiter des tâches nécessitant le raisonnement, l’abstraction et la compréhension. Ils proposent plusieurs composants clés pour construire des systèmes d’IA plus robustes, et insistent sur la l'aptitude à combiner des concepts simples en concepts complexes, à inclure la compréhension de nos états mentaux et la capacité d’apprendre à apprendre.
Enfin, les auteurs soulignent, une fois de plus, l’importance de construire des systèmes d’IA transparents, explicables et alignés sur les valeurs humaines. Ils soutiennent que les systèmes actuels d’IA sont souvent des "boîtes noires", ce qui rend difficile la compréhension de leurs processus décisionnels.
Dans "The Eye of the Master: A Social History of Artificial Intelligence" (2023), Matteo Pasquinelli propose une analyse matérialiste de l'intelligence artificielle (IA), soutenant que celle-ci n'est pas une simple imitation de l'intelligence biologique, mais qu'elle est profondément enracinée dans l'organisation sociale du travail et les relations de pouvoir. Il affirme que l'IA extrait, encode et commercialise la connaissance collective et le travail humain, reflétant ainsi les schémas de la division du travail. Pasquinelli retrace l'évolution de l'IA depuis les premières techniques culturelles en Inde vers 800 av. J.-C., en passant par les machines industrielles de l'ère victorienne, jusqu'aux réseaux neuronaux artificiels du XXe siècle. Il soutient que l'IA a toujours été façonnée par les relations sociales et les modes de production de son temps. L'auteur propose une "théorie du travail de l'automatisation", suggérant que les machines intelligentes sont conçues pour automatiser non seulement le travail manuel, mais aussi le travail mental, en capturant et en codifiant la coopération sociale et la connaissance collective.
Les améliorations significatives de l'intelligence artificielle (IA) au cours des dernières années peuvent être attribuées à une combinaison de progrès technologiques, d'augmentation de la puissance de calcul, de disponibilité des données et d'innovations algorithmiques. Les quelques facteurs clés expliquant pourquoi l'IA est plus performante aujourd'hui qu'il y a quelques années sont les suivants ...
1. Progrès en matière d'apprentissage profond (Advances in Deep Learning)
Architectures de réseaux neuronaux (Neural Network Architectures): Les percées dans le domaine de l'apprentissage profond, en particulier le développement d'architectures de réseaux neuronaux avancés tels que les Convolutional Neural Networks (CNNs) pour le traitement des images et les Recurrent Neural Networks (RNNs) et les Transformers for natural language processing (NLP), ont considérablement amélioré les performances de l'intelligence artificielle. Des modèles tels que BERT, GPT-3 et Vision Transformers (ViTs) ont établi de nouvelles références en matière de traitement du langage naturel et de vision par ordinateur.
Apprentissage par transfert : La possibilité de pré-entraîner des modèles sur de vastes ensembles de données et de les affiner pour des tâches spécifiques a rendu l'IA plus efficace et efficiente.
"Deep Learning", by Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016)
Il s'agit du manuel définitif sur l'apprentissage profond (deep learning), qui couvre les concepts fondamentaux, les algorithmes et les architectures qui ont été à l'origine des progrès récents de l'IA. Il explique comment les réseaux neuronaux, les techniques d'optimisation et les grands ensembles de données ont révolutionné l'IA (Explains how neural networks, optimization techniques, and large datasets have revolutionized AI). Le livre contient des conseils pratiques, des algorithmes et du pseudocode pour aider les lecteurs à mettre en œuvre des modèles d'apprentissage profond. Utilisé comme manuel dans les universités du monde entier, il fournit une base solide pour comprendre l'apprentissage profond.
"Artificial Intelligence: A Guide to Intelligent Systems", by Michael Negnevitsky (2002)
Présente une vue d'ensemble des techniques d'intelligence artificielle, notamment les réseaux neuronaux, la logique floue et le calcul évolutif (an overview of AI techniques, including neural networks, fuzzy logic, and evolutionary computation). Explique comment ces méthodes ont évolué et se sont améliorées au fil du temps. Le livre a été publié pour la première fois en 2002 et, bien qu'il ait été mis à jour, certaines sections peuvent sembler dépassées compte tenu des progrès rapides de l'IA. Par exemple, la couverture des réseaux neuronaux est limitée par rapport aux manuels modernes sur l'apprentissage profond, l 'apprentissage par renforcement et les transformateurs. Les lecteurs intéressés par la recherche de pointe en matière d'IA devront peut-être compléter l'ouvrage par des ressources supplémentaires.
"Quand la machine apprend", Yann Le Cun (2023)
Yann Le Cun, pionnier de l'apprentissage profond, retrace l'évolution de l'IA (et son parcours académique), explique les concepts clés du deep learning et partage sa vision sur les futures orientations de la recherche. Il aborde notamment les défis techniques et éthiques liés au développement de machines intelligentes. Sa réflexion rejoint celle de la plupart des ouvrages déjà mentionnés ...
2. Augmentation de la puissance de calcul (Increased Computational Power)
GPUs et TPUs : L'adoption généralisée des Graphics Processing Units (GPU) et des Tensor Processing Units (TPU) a considérablement accéléré l'entraînement des modèles d'apprentissage profond. Ces plateformes matérielles spécialisées sont optimisées pour le traitement parallèle, ce qui les rend idéales pour les charges de travail d'IA.
Cloud Computing : Les plateformes de Cloud comme AWS, Google Cloud et Microsoft Azure fournissent des ressources informatiques évolutives, permettant aux chercheurs et aux entreprises de former des modèles plus importants et de traiter des ensembles de données massifs ..
"The Master Algorithm", by Pedro Domingos (2015)
Pedro Domingos explore le domaine de l'apprentissage automatique et propose l'idée ambitieuse d'un "algorithme maître" capable d'apprendre à partir de n'importe quel type de données pour découvrir toutes les connaissances. Domingos, professeur d'informatique à l'Université de Washington, structure son ouvrage en trois parties principales :
1. Introduction à l'apprentissage automatique :
Domingos commence par illustrer l'omniprésence des algorithmes d'apprentissage dans notre quotidien, soulignant leur rôle dans des domaines tels que le séquençage de l'ADN, la conduite autonome, la gestion financière, le filtrage des spams et la reconnaissance vocale. Il aborde des concepts fondamentaux tels que la nature de l'apprentissage, la définition de la connaissance et l'évolution historique de l'informatique. L'auteur met en évidence les limites des méthodes traditionnelles d'acquisition des connaissances et plaide pour une approche basée sur l'apprentissage automatique pour appréhender des phénomènes complexes.
2. Les cinq "tribus" de l'apprentissage automatique :
Domingos identifie cinq écoles principales de l'apprentissage automatique, qu'il appelle des "tribus", chacune ayant sa propre approche et ses propres techniques :
- Symbolistes : Ils se concentrent sur le raisonnement symbolique et l'apprentissage de règles logiques pour créer une intelligence artificielle.
- Connexionnistes : Inspirés par le fonctionnement du cerveau humain, ils utilisent des réseaux de neurones artificiels pour modéliser des processus cognitifs.
- Évolutionnistes : Ils appliquent des algorithmes génétiques, s'inspirant de la sélection naturelle, pour optimiser des solutions à des problèmes complexes.
- Bayésiens : Ils utilisent le raisonnement statistique et l'inférence probabiliste pour gérer l'incertitude et tirer des conclusions à partir de données.
- Analogistes : Ils se concentrent sur la reconnaissance de motifs et l'utilisation d'analogies pour résoudre des problèmes.
Domingos consacre un chapitre à chacune de ces "tribus", détaillant leurs méthodes, leurs forces et leurs limites. Il suggère que la combinaison des approches de ces cinq écoles pourrait conduire à la découverte de l'algorithme maître, une méthode universelle capable d'apprendre à partir de n'importe quel ensemble de données.
La quête de l'algorithme maître :
Dans la dernière partie du livre, Domingos envisage un futur où un algorithme maître unifierait les différentes approches de l'apprentissage automatique, permettant aux machines d'apprendre de manière autonome à partir de données variées. Il discute des défis techniques, éthiques et sociétaux associés à cette quête, notamment les problèmes de surapprentissage, de bruit dans les données et de biais. L'auteur souligne également l'importance de la qualité et de la diversité des données pour garantir des résultats fiables et équitables. Il aborde les implications potentielles d'un tel algorithme sur divers secteurs, y compris la médecine, la finance et les relations humaines, tout en appelant à une réflexion éthique sur la gouvernance et la responsabilité des systèmes d'IA.
3. Disponibilité des Big Data (Availability of Big Data)
Explosion des données (Explosion of Data) : La prolifération des appareils numériques (digital devices), des médias sociaux (social media) et de l'internet des objets (Internet of Things , IoT) a entraîné une augmentation exponentielle de la quantité de données disponibles pour l'entraînement des modèles d'IA. Les grands ensembles de données, tels que ImageNet pour la vision par ordinateur et Common Crawl pour le NLP, ont joué un rôle déterminant dans l'avancement de l'IA.
Annotation des données (Data Annotation) : L'amélioration des outils et des plateformes d'étiquetage des données (data labeling, par exemple, Amazon Mechanical Turk, Labelbox) a facilité la création d'ensembles de données d'entraînement de haute qualité (high-quality training datasets).
"Big Data: A Revolution That Will Transform How We Live, Work, and Think", by Viktor Mayer-Schönberger and Kenneth Cukier (2013)
Les auteurs soutiennent que l'abondance de données modifie fondamentalement la manière dont nous comprenons et interagissons avec le monde, et expliquent comment l'explosion des données (explosion of data ) a permis aux systèmes d'IA d'apprendre et de s'améliorer.
- Transition vers le big data : les auteurs décrivent le passage d'analyses basées sur de petits échantillons de données à des ensembles massifs, permettant de découvrir des corrélations et des tendances auparavant inaccessibles. Cette approche privilégie la quantité de données et accepte leur éventuelle "messiness" (désordre), remettant en question la quête traditionnelle de précision.
- Changement de paradigme dans la pensée : les auteurs proposent que le big data nécessite une nouvelle approche intellectuelle, passant d'une méthode "connaissance d'abord" à une approche "données d'abord", où l'analyse des données précède la formulation de théories ou d'hypothèses.
- Applications pratiques : le livre fournit des exemples concrets de l'utilisation du big data, tels que la prédiction des épidémies de grippe via les recherches Google, l'optimisation de la maintenance des véhicules et l'amélioration des recommandations de produits en ligne.
- Conséquences sociétales et éthiques : les auteurs discutent des défis liés à la confidentialité, à la sécurité des données et à la propriété des informations, soulignant la nécessité de nouvelles régulations et d'une réflexion éthique pour gérer les impacts du big data sur la société.
"Weapons of Math Destruction", by Cathy O’Neil (2016)
Cathy O'Neil examine l'impact des algorithmes et du big data sur la société, en mettant en lumière comment ces outils, censés être objectifs, peuvent perpétuer et amplifier les inégalités sociales. Mathématicienne et data scientist, O'Neil s'appuie sur son expérience pour analyser les dangers des modèles mathématiques lorsqu'ils sont appliqués sans discernement.
Caractéristiques des "armes de destruction mathématique" (Weapons of Math Destruction, WMDs) : O'Neil définit les WMDs comme des modèles algorithmiques possédant trois traits principaux :
- Opacité (opacity) : Les algorithmes sont souvent des "boîtes noires" dont le fonctionnement interne est inconnu ou incompréhensible pour le grand public.
- Échelle (scale) : Ces modèles peuvent être appliqués à grande échelle, affectant des millions de personnes simultanément.
- Dommages (harm) : Ils peuvent causer des préjudices significatifs, notamment en renforçant les discriminations existantes.
Exemples illustratifs :
- Évaluation des enseignants (Teacher Evaluation Systems): O'Neil critique les systèmes d'évaluation des enseignants basés sur des algorithmes qui peuvent conduire au licenciement injuste d'enseignants compétents en se basant sur des données biaisées ou incomplètes.
- Systèmes de notation de crédit (Credit Scoring and Financial Services) : Les scores de crédit déterminent l'accès aux prêts, aux emplois et même aux logements. O'Neil souligne que ces systèmes peuvent pénaliser injustement des individus en se basant sur des corrélations trompeuses.
- Publicité ciblée (Targeted Advertising): Les campagnes publicitaires en ligne utilisent des algorithmes pour cibler des populations vulnérables, comme les personnes à faible revenu, en leur proposant des offres prédatrices, notamment des prêts à taux élevé.
4. Innovations algorithmiques (Algorithmic Innovations)
- Apprentissage par renforcement (Reinforcement Learning) : Les progrès de l'apprentissage par renforcement (Advances in reinforcement learning, RL) ont permis aux systèmes d'IA d'apprendre des tâches complexes par essais et erreurs (through trial and error), ce qui a conduit à des percées dans des domaines tels que les jeux (p. ex. AlphaGo, AlphaZero) et la robotique.
- Modèles génératifs (Generative Models): Le développement de Generative Adversarial Networks (GANs) et des Variational Autoencoders (VAEs) a révolutionné la capacité de l'IA à générer des images, des vidéos et des textes réalistes.
- Apprentissage auto-supervisé (Self-Supervised Learning) : Des techniques telles que l'apprentissage auto-supervisé (self-supervised learning ) permettent aux modèles d'apprendre à partir de données non étiquetées (unlabeled data), ce qui réduit la nécessité de disposer de vastes ensembles de données annotées (annotated datasets).
"Reinforcement Learning: An Introduction", by Richard S. Sutton and Andrew G. Barto (2018)
L'apprentissage par renforcement (RL) est une méthode d'apprentissage automatique dans laquelle un agent apprend à prendre des décisions en interagissant avec un environnement, dans le but de maximiser une récompense cumulative au fil du temps. L'agent observe l'état actuel de l'environnement, choisit une action, reçoit une récompense en conséquence, et perçoit le nouvel état résultant de cette action. Ce processus itératif permet à l'agent de développer une politique optimale, c'est-à-dire une stratégie qui détermine la meilleure action à entreprendre dans chaque état pour maximiser les récompenses futures.
Un guide complet et une présentation exhaustive de l'apprentissage par renforcement (RL), une branche essentielle de l'intelligence artificielle. Publié initialement en 1998 et révisé en 2018, cet ouvrage est souvent considéré comme la référence fondamentale pour les étudiants, chercheurs et praticiens souhaitant approfondir le RL.
Le livre est structuré en plusieurs chapitres qui couvrent les concepts clés du RL :
- Introduction au RL : Les auteurs positionnent le RL comme un paradigme distinct de l'apprentissage supervisé et non supervisé, mettant l'accent sur l'apprentissage par interaction avec un environnement pour maximiser une récompense cumulative.
- Méthodes de Monte Carlo et de différence temporelle : Présentation des techniques permettant d'estimer les valeurs d'états et d'actions en se basant sur des expériences épisodiques ou continues.
- Apprentissage TD(λ) : Introduction du concept de traces d'éligibilité pour combiner les avantages des méthodes Monte Carlo et de différence temporelle.
- Fonctions de valeur et politiques : Discussion sur la manière de représenter et d'améliorer les politiques d'action en se basant sur les fonctions de valeur.
- Apprentissage par différence temporelle : Exploration des méthodes d'apprentissage qui mettent à jour les estimations de valeur en fonction des différences entre les estimations successives.
- Apprentissage par renforcement avec approximation de fonction : Examen des techniques pour gérer des espaces d'états et d'actions continus ou de grande dimension en utilisant des approximations paramétriques ou non paramétriques.
"Generative Deep Learning", by David Foster (2019, 2023)
David Foster propose une exploration approfondie des modèles génératifs en apprentissage profond, en se concentrant sur des techniques telles que les autoencodeurs variationnels (VAE), les réseaux antagonistes génératifs (GAN) et les modèles encodeur-décodeur. L'ouvrage est conçu pour les ingénieurs en apprentissage automatique et les data scientists souhaitant comprendre et implémenter ces modèles pour des applications créatives.
Fondements de l'apprentissage profond : le livre commence par une introduction aux concepts de base de l'apprentissage profond, établissant une base solide pour les chapitres ultérieurs et préparant les lecteurs à la construction de modèles génératifs ...
- Réseaux de neurones artificiels (Artificial Neural Networks) : les réseaux de neurones sont des structures computationnelles inspirées du cerveau humain, composées de neurones artificiels organisés en couches. Chaque neurone effectue des calculs sur les entrées reçues et transmet le résultat aux neurones des couches suivantes.
- Fonctions d'activation (Activation Functions) : Les fonctions d'activation déterminent la sortie d'un neurone en fonction de son entrée. Elles introduisent de la non-linéarité dans le réseau, permettant de modéliser des relations complexes. Parmi les fonctions couramment utilisées figurent la fonction sigmoïde, la tangente hyperbolique (tanh) et la fonction ReLU (Rectified Linear Unit).
- Propagation avant et rétropropagation (Forward and Backpropagation) : La propagation avant consiste à faire passer les données d'entrée à travers le réseau pour obtenir une sortie. La rétropropagation est une méthode d'apprentissage qui ajuste les poids des connexions en fonction de l'erreur entre la sortie prédite et la sortie réelle, en propageant cette erreur en sens inverse dans le réseau.
- Fonctions de perte (Loss Functions) : Les fonctions de perte mesurent l'écart entre les prédictions du modèle et les valeurs réelles. Elles guident le processus d'apprentissage en indiquant dans quelle mesure le modèle doit être ajusté. Des exemples incluent l'erreur quadratique moyenne (Mean Squared Error) pour les tâches de régression et l'entropie croisée (Cross-Entropy) pour les tâches de classification.
- Optimisation (Optimization) : Les algorithmes d'optimisation, tels que la descente de gradient stochastique (Stochastic Gradient Descent) et ses variantes comme Adam, sont utilisés pour minimiser la fonction de perte en ajustant les poids du réseau de manière efficace.
- Apprentissage supervisé et non supervisé (Supervised and Unsupervised Learning) : Dans l'apprentissage supervisé, le modèle est formé sur des données étiquetées, c'est-à-dire des paires entrée-sortie connues. Dans l'apprentissage non supervisé, le modèle apprend à partir de données non étiquetées, en identifiant des structures ou des motifs sous-jacents.
- Réseaux de neurones convolutifs (Convolutional Neural Networks - CNNs) : Les CNNs sont spécialement conçus pour traiter des données structurées en grille, comme les images. Ils utilisent des opérations de convolution pour extraire des caractéristiques locales, ce qui les rend efficaces pour la reconnaissance d'images et d'autres tâches similaires.
- Réseaux de neurones récurrents (Recurrent Neural Networks - RNNs) : Les RNNs sont adaptés au traitement des données séquentielles, telles que le texte ou les séries temporelles. Ils possèdent des connexions récurrentes qui leur permettent de conserver une mémoire des informations précédentes, essentielle pour la modélisation des dépendances temporelles.
5. Outils et cadres open-source (Open-Source Tools and Frameworks)
- Bibliothèques d'IA (AI Libraries) : La disponibilité de bibliothèques d'IA libres comme TensorFlow, PyTorch et Hugging Face Transformers a démocratisé le développement de l'IA, permettant aux chercheurs et aux développeurs de construire et de partager des modèles plus facilement.
- Modèles pré-entraînés (Pre-Trained Models) : Des plateformes comme Hugging Face et TensorFlow Hub donnent accès à des modèles pré-entraînés, ce qui permet aux développeurs d'exploiter l'état de l'art de l'IA sans partir de zéro.
"Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow", by Aurélien Géron (2017, 2019)
Un guide pratique sur l'utilisation d'outils open-source tels que TensorFlow et Keras pour construire des modèles d'IA. Démontre comment ces outils ont démocratisé le développement de l'IA (Demonstrates how these tools have democratized AI development). Le livre est conçu pour guider les lecteurs à travers la construction de modèles d'apprentissage automatique, en fournissant des explications claires et des exemples concrets.
L'ouvrage est divisé en deux parties principales, "Fondamentaux de l'apprentissage automatique", "Réseaux de neurones et apprentissage profond".
L’introduction à l'apprentissage automatique dans l’ouvrage d’Aurélien Géron pose les bases fondamentales du domaine, en expliquant ce qu’est l’apprentissage automatique (machine learning), pourquoi il est essentiel, et comment il se différencie des approches classiques de programmation. L’auteur utilise des analogies simples et des exemples pratiques pour rendre les concepts accessibles.
Géron définit l’apprentissage automatique comme "un programme qui apprend à partir de l'expérience", selon la formule proposée par Tom Mitchell, “A computer program is said to learn from experience E with respect to some task T and some performance measure P if its performance on T, as measured by P, improves with experience E.” En d’autres termes, un modèle apprend lorsqu’il améliore sa capacité à accomplir une tâche à partir des données qu’il reçoit, plutôt que par une programmation explicite.
L’auteur met en avant plusieurs raisons pour lesquelles le machine learning est devenu essentiel :
- Disponibilité massive des données (Big Data) : Les entreprises génèrent des quantités énormes de données, que le machine learning peut analyser efficacement.
- Progrès matériels (GPU, TPU) : Les avancées technologiques permettent aujourd’hui de traiter ces données plus rapidement.
- Amélioration des algorithmes : Les innovations dans les techniques d’apprentissage rendent les modèles plus performants.
- Large applicabilité : Le machine learning s’applique à de nombreux domaines : reconnaissance faciale, véhicules autonomes, recommandations en ligne, traitement automatique du langage (NLP), etc.
L’auteur présente les principales catégories d’apprentissage automatique :
- Apprentissage supervisé (Supervised Learning)
Définition : L’algorithme apprend à partir de données étiquetées (avec des exemples de sortie connus).
Exemples : Régression linéaire, régression logistique, machines à vecteurs de support (SVM), forêts aléatoires (Random Forests).
Applications : Classification d’images, détection de spam, prévision des prix.
- Apprentissage non supervisé (Unsupervised Learning)
Définition : L’algorithme découvre des motifs dans des données non étiquetées.
Exemples : Clustering (groupement), analyse en composantes principales (PCA), réseaux autoencodeurs.
Applications : Segmentation de clients, détection d’anomalies.
- Apprentissage semi-supervisé (Semi-Supervised Learning)
Définition : Une combinaison de données étiquetées et non étiquetées.
Exemple : Google Photos utilise ce type d'apprentissage pour organiser automatiquement des albums d'images.
- Apprentissage par renforcement (Reinforcement Learning)
Définition : L’algorithme apprend par essais et erreurs à travers un système de récompenses.
Exemple : AlphaGo, l'IA de Google DeepMind qui a battu les champions mondiaux de Go.
"Deep Learning with Python", François Chollet (2017, 2022)
Keras est une bibliothèque open-source de haut niveau en Python, conçue pour faciliter la création et l'entraînement de modèles de deep learning (apprentissage profond). Elle repose sur des frameworks puissants comme TensorFlow, ce qui en fait un outil très populaire pour les chercheurs, les ingénieurs et les débutants dans le domaine de l’IA. Dans cet ouvrage, François Chollet, créateur de la bibliothèque Keras et chercheur en intelligence artificielle chez Google, propose une introduction pratique et accessible au deep learning en utilisant le langage Python et Keras. Le livre est structuré pour guider le lecteur des concepts fondamentaux aux applications avancées du deep learning. Un ouvrage recommandé aux lecteurs ayant une solide formation mathématique de compléter cette lecture par des ouvrages plus techniques.
6. Techniques d'entraînement améliorées (Improved Training Techniques)
Régularisation et optimisation (Regularization and Optimization) : Des techniques telles que le dropout, la normalisation des lots (batch normalization) et les algorithmes d'optimisation avancés (advanced optimization algorithms, par exemple, Adam, RMSProp) ont amélioré la stabilité et l'efficacité de la formation des réseaux neuronaux profonds.
Optimisation des hyperparamètres (Hyperparameter Tuning) : Des outils comme Optuna et Ray Tune ont facilité l'optimisation des hyperparamètres du modèle (model hyperparameters), ce qui a permis d'améliorer les performances.
"AI Ethics", by Mark Coeckelbergh (2020, MIT Press)
Coeckelbergh présente les défis éthiques de l'IA (ethical challenges of AI), y compris la partialité (bias), l'équité (fairness) et la transparence (transparency), puis aborde des domaines tels que les véhicules autonomes, la surveillance policière et l'armement, en analysant les défis éthiques propres à chaque application. Nous explique enfin comment les considérations éthiques influencent le développement des systèmes d'IA (how ethical considerations are shaping the development of AI systems).
Dans AI Ethics, Mark Coeckelbergh aborde la complexité d'établir des cadres éthiques adaptés à une technologie en constante évolution, telle que l'intelligence artificielle (IA). Il souligne que les approches traditionnelles de l'éthique peuvent être insuffisantes face aux défis posés par l'IA, en raison de sa rapidité de développement et de son intégration profonde dans divers aspects de la société.
Coeckelbergh met en évidence plusieurs facteurs contribuant à cette complexité :
- la nature dynamique de l'IA : Les technologies d'IA évoluent rapidement, rendant difficile l'élaboration de cadres éthiques statiques.
- l'interdisciplinarité requise : L'IA touche à de nombreux domaines, nécessitant une collaboration entre différentes disciplines pour une approche éthique complète.
- la diversité des applications : Les multiples utilisations de l'IA, de la santé à la finance, impliquent des considérations éthiques variées et spécifiques à chaque contexte.
- Incertitude et imprévisibilité : Les conséquences à long terme de l'IA sont souvent inconnues, compliquant l'anticipation des enjeux éthiques.
Pour répondre à ces défis, Coeckelbergh propose une approche flexible et adaptative de l'éthique de l'IA, qui prend en compte le contexte spécifique de chaque application et encourage une réflexion continue et critique. Il insiste sur l'importance d'une participation inclusive des parties prenantes et d'une régulation proactive pour accompagner le développement de l'IA de manière éthique. L'ouvrage manque cependant de profondeur et de solutions concrètes, le rendant plus adapté aux novices en éthique de l'IA qu'aux lecteurs expérimentés...
7. Collaboration interdisciplinaire (Interdisciplinary Collaboration)
Perspectives interdisciplinaires (Cross-Domain Insights) : La collaboration entre les chercheurs en IA et les experts dans des domaines tels que les neurosciences, la psychologie et la physique a permis d'acquérir de nouvelles connaissances et approches en matière d'IA.
Par exemple, les architectures inspirées des neurosciences (neuroscience-inspired architectures ), comme les réseaux de neurones à pointes (spiking neural networks ), sont étudiées pour améliorer l'efficacité des systèmes d'IA.
"The Book of Why: The New Science of Cause and Effect", by Judea Pearl and Dana Mackenzie (2018)
Dans cet ouvrage, Judea Pearl, lauréat du prix Turing, et le journaliste scientifique Dana Mackenzie explorent la science de la causalité (causal reasoning ), mettant en lumière comment la compréhension des relations de cause à effet (cause-and-effect relationships) a révolutionné la science et comment une compréhension approfondie de la causalité peut améliorer les systèmes d'intelligence artificielle, en les rendant capables de raisonner sur les causes et les effets, et pas seulement de détecter des motifs dans les données ...
Les auteurs commencent par discuter de la distinction entre "corrélation" et "causalité", soulignant que la corrélation n'implique pas nécessairement une relation causale. Ils critiquent ainsi les méthodes statistiques traditionnelles qui se concentrent uniquement sur les corrélations, arguant qu'elles sont insuffisantes pour établir des relations causales. Il plaide pour une intégration des méthodes causales dans les analyses statistiques et introduisent le concept de "révolution causale" (Causal Revolution), qui vise à établir la causalité sur une base scientifique solide.
Pearl présente ainsi une hiérarchie en trois niveaux pour comprendre la causalité :
- Association (Voir) / Association (Seeing) : Observer des régularités ou des corrélations dans les données.
- Intervention (Faire) / Intervention (Doing) : Comprendre ce qui se passe lorsque nous intervenons ou modifions une variable.
- Contrefactuel (Imaginer) / Counterfactuals (Imagining) : Considérer ce qui aurait pu se passer si les conditions avaient été différentes.
L'ouvrage introduit ensuite les "diagrammes causaux" ou "réseaux bayésiens", des outils visuels permettant de représenter et d'analyser les relations causales entre variables. Pearl explique également le "do-calculus", une méthode formelle pour analyser les effets des interventions.
Les auteurs en viennent à illustrer l'application des concepts de causalité dans divers domaines, tels que la médecine (évaluation de l'efficacité des traitements), l'économie (analyse des politiques publiques) et l'intelligence artificielle (amélioration des modèles prédictifs).
"Life 3.0: Being Human in the Age of Artificial Intelligence", by Max Tegmark (2017)
Un ouvrage de Max Tegmark, physicien et professeur au MIT dans lequel il explore les implications potentielles de l'intelligence artificielle (IA) sur l'avenir de l'humanité, en abordant à la fois les opportunités et les risques associés à son développement. Tegmark introduit le concept de "Life 3.0" pour décrire une forme de vie capable de concevoir à la fois son matériel (hardware) et son logiciel (software). Il distingue trois phases de la vie :
- Life 1.0 : La vie biologique, où les organismes ne peuvent ni modifier leur matériel ni leur logiciel.
- Life 2.0 : La vie culturelle, comme les humains, capables de modifier leur logiciel (apprentissage, culture) mais pas leur matériel.
- Life 3.0 : La vie technologique, où les êtres peuvent concevoir et modifier à la fois leur matériel et leur logiciel, une étape potentielle rendue possible par l'IA avancée.
Le livre commence par un scénario fictif où une équipe développe une IA superintelligente nommée "Prometheus", qui finit par dominer divers secteurs, illustrant les immenses potentiels et dangers de l'IA.
Tegmark aborde ensuite les défis actuels de l'IA, tels que le chômage technologique dû à l'automatisation, les armes autonomes et les biais algorithmiques. Il souligne l'importance d'aligner les objectifs de l'IA sur les valeurs humaines pour éviter des conséquences indésirables.
Le livre s'attache également à élaborer diverses trajectoires futures pour l'IA, allant de scénarios utopiques où l'IA coexiste harmonieusement avec l'humanité, à des dystopies où elle représente une menace existentielle. Tegmark insiste sur la nécessité d'une réflexion proactive et d'une collaboration internationale pour guider le développement de l'IA de manière bénéfique.
8. Investissement et adoption par l'industrie (Investment and Industry Adoption)
Augmentation du financement (Increased Funding): Des investissements importants de la part des gouvernements, des géants de la technologie et des sociétés de capital-risque ont alimenté la recherche et le développement en matière d'IA. Des entreprises comme Google, Facebook (Meta), Microsoft et OpenAI sont à la pointe de l'innovation en matière d'IA.
Applications dans le monde réel (Real-World Applications): L'adoption de l'IA dans des secteurs tels que la santé, la finance, l'automobile et le commerce de détail a stimulé la demande de systèmes d'IA plus précis et plus efficaces.
"AI Superpowers: China, Silicon Valley, and the New World Order", by Kai-Fu Lee (2018)
Dans cet ouvrage, Kai-Fu Lee, expert en intelligence artificielle (IA) et investisseur en capital-risque, analyse la compétition croissante entre les États-Unis et la Chine dans le domaine de l'IA. Il explore comment ces deux superpuissances technologiques se disputent la suprématie dans un domaine qui redéfinit l'économie mondiale.
Les quatre vagues de l'IA :
- IA par Internet (Internet AI) : Utiliser des données provenant de milliards d’interactions en ligne pour améliorer les services (p. ex., algorithmes de recommandation sur des plateformes comme Amazon, TikTok ou Baidu).
- IA par les affaires (Business AI) : Utiliser l’IA pour optimiser les opérations, la logistique et la prise de décisions (p. ex., le service à la clientèle et les systèmes financiers).
- IA par la perception (Perception AI) : Intégrer l’IA à des capteurs et des objets connectés, ce qui permet la reconnaissance faciale, la conduite autonome et les technologies de la maison intelligente.
- IA par l'autonomie (Autonomous AI): Développement de systèmes autonomes, tels que les voitures autonomes et les drones de livraison automatisés.
Puis l'auteur en vient à une comparaison entre la Chine et les États-Unis :
Avantages de la Chine :
- Données massives (Massive Data Advantage) : La Chine dispose d'une vaste population connectée, générant une quantité énorme de données, essentielle pour entraîner les algorithmes d'IA.
- Esprit entrepreneurial (Rapid Implementation) : Une culture de start-up dynamique, avec des entrepreneurs prêts à innover et à prendre des risques. Les entreprises chinoises itèrent rapidement sur des produits, en se concentrant sur des solutions axées sur le marché plutôt que sur la recherche pure.
- Soutien gouvernemental (Government Support) : Le gouvernement chinois investit massivement dans l'IA, considérant ce domaine comme stratégique pour l'avenir du pays.
Avantages des États-Unis :
- Innovation de pointe (Innovation and Research): Les États-Unis abritent des centres de recherche de renommée mondiale et des entreprises leaders en IA, Google, Microsoft, OpenAI, Stanford et le MIT.
- Talents (Global Talent Pool) : Attraction de talents internationaux et présence d'universités prestigieuses formant des experts en IA.
- Écosystème du capital de risque (Venture Capital Ecosystem) : La scène américaine du capital de risque, centrée dans la Silicon Valley, continue de financer des startups et technologies innovantes.
Lee avertit que l'IA pourrait automatiser de nombreux emplois, tant dans les secteurs manufacturiers que dans les services. Il souligne la nécessité de repenser l'éducation et la formation pour préparer la main-d'œuvre aux emplois de demain, mettant l'accent sur des compétences humaines telles que la créativité et l'empathie.
L'auteur discute enfin des défis éthiques posés par l'IA, notamment en matière de confidentialité, de biais algorithmiques et de concentration du pouvoir entre les mains de quelques grandes entreprises technologiques. Il appelle à une collaboration internationale pour établir des normes et des régulations garantissant que l'IA profite à l'ensemble de l'humanité.
"The Fourth Age: Smart Robots, Conscious Computers, and the Future of Humanity", by Byron Reese (2018)
Byron Reese, entrepreneur en technologie et futurologue, analyse les transformations profondes que l'intelligence artificielle (IA) et la robotique pourraient apporter à l'humanité. Il soutient que nous sommes à l'aube d'une quatrième grande ère de l’histoire humaine, une période qui pourrait redéfinir notre conception de la conscience, du travail et de la société.
Les quatre grandes ères technologiques selon Reese :
- Première ère : Le feu et le langage (il y a environ 100 000 ans)
- Deuxième ère : L'agriculture et les villes (il y a environ 10 000 ans)
- Troisième ère : L’écriture et la roue (il y a environ 5 000 ans)
- Quatrième ère : L’intelligence artificielle et la robotique (Aujourd’hui)
Nous entrons, selon Reese, dans une nouvelle ère marquée par des technologies capables de transformer la société aussi profondément que les révolutions précédentes. L’IA et les robots peuvent accomplir des tâches complexes, interagir avec les humains et, potentiellement, développer une certaine forme de conscience.
Les enjeux clés de la Quatrième Ère selon Byron Reese :
1. Intelligence artificielle et conscience : Reese pose la question fondamentale : L’IA peut-elle devenir consciente ? Il explore diverses théories philosophiques sur la nature de la conscience, distinguant : l’intelligence (capacité à résoudre des problèmes) et la conscience (capacité à ressentir et à percevoir). Reese conclut que, même si une machine peut reproduire des comportements humains, la véritable conscience reste un mystère.
2. Impact de l’IA sur l’emploi : Destruction d’emplois ? Reese discute du potentiel de l’IA à automatiser des millions de postes, particulièrement dans les secteurs répétitifs (transport, finance, service client). Création de nouvelles professions ? Il reste optimiste, suggérant que l’histoire a montré que chaque révolution technologique crée de nouveaux types d’emplois.
Il souligne la nécessité de repenser l’éducation et former aux compétences humaines (créativité, empathie, pensée critique).
3. Éthique et robots conscients : Il plaide pour des cadres éthiques robustes avant que l’IA n’atteigne des niveaux d’autonomie avancés.
4. Scénarios pour l’avenir : Reese propose plusieurs visions possibles du futur :
- Scénario optimiste : L’IA devient un partenaire, libérant l’humanité des tâches pénibles et permettant une ère de prospérité.
- Scénario pessimiste : L’automatisation massive provoque une crise sociale et économique, avec une montée des inégalités.
- Scénario intermédiaire : L’humanité et l’IA coévoluent, mais non sans conflits et ajustements.
Sans doute, des prédictions déjà formulées par ailleurs, - on ne se renouvelle guère chez les futurologues -, un certain manque de fondement scientifique solide et de solutions concrètes. reste les questions...
9. Développement éthique et responsable de l'IA (Ethical and Responsible AI Development)
- Priorité à l'équité et aux préjugés (Focus on Fairness and Bias): La recherche visant à atténuer les biais et à garantir l'équité des modèles d'IA a permis de mettre au point des systèmes plus fiables et plus dignes de confiance (more reliable and trustworthy systems).
- Explicabilité (Explainability) : Les efforts visant à rendre les modèles d'IA plus interprétables (more interpretable , par exemple, SHAP, LIME) ont permis d'améliorer leur utilisation dans des applications critiques (critical applications) telles que les soins de santé et la finance.
You are accused of a crime? Who would you rather decides your future – an algorithm or a human? Before making your decision, bear in mind that the algorithm will always be more consistent, and far less prone to an error of judgement. Vous êtes accusé d’un crime? Qui choisiriez-vous plutôt pour décider de votre avenir – un algorithme ou un humain? Avant de prendre votre décision, gardez à l’esprit que l’algorithme sera toujours plus cohérent et beaucoup moins sujet à une erreur de jugement. Alors, au moins l’humain sera capable de vous regarder dans les yeux avant de déterminer votre destin. Dans quelle mesure seriez-vous prêt à sacrifier votre équité pour cette touche humaine? C’est l’un des dilemmes auxquels nous sommes confrontés à l’ère de l’algorithme, où la machine règne en maître, nous disant quoi regarder, où aller, même qui envoyer en prison. Comme nous comptons de plus en plus sur eux pour automatiser les grandes décisions importantes – dans le domaine du crime, des soins de santé, du transport, de l’argent – ils soulèvent des questions qui touchent au cœur même de ce que nous voulons que notre société soit et nous obligent à décider de ce qui est le plus important. Est-ce que l’aide aux médecins pour diagnostiquer les patients est plus ou moins importante que de préserver notre anonymat? Faut-il empêcher que des gens deviennent victimes d’un crime ou protéger des innocents contre des accusations mensongères? Hannah Fry nous fait faire un tour des algorithmes qui nous entourent, à travers le bien, le mal, elle lève le couvercle sur leur fonctionnement interne, démontre leur pouvoir, expose leurs limites et examine si elles sont vraiment une amélioration des systèmes humains qu’elles remplacent...
"Hello World: Being Human in the Age of Algorithms" (2019), by Hannah Fry
Hannah Fry, mathématicienne et experte en modélisation des systèmes complexes, explore l'impact des algorithmes sur notre vie quotidienne. Son objectif est de montrer que, bien que les algorithmes puissent améliorer la prise de décision dans certains domaines, ils comportent également des risques importants, notamment en matière de préjugés, de transparence et de responsabilité. Le livre est structuré en sept chapitres, chacun traitant d’un domaine spécifique où les algorithmes jouent un rôle majeur : la justice, la médecine, la police, les transports, l’art, les relations humaines et les conflits.
Chapitre 1 : Power (Le pouvoir des algorithmes)
- Thème : Qu’est-ce qu’un algorithme et pourquoi leur faisons-nous confiance ?
Hannah Fry commence par expliquer ce qu’est un algorithme : une suite d’instructions permettant d’effectuer une tâche de manière automatique. Elle met en lumière le paradoxe suivant : les algorithmes peuvent surpasser l’humain dans certaines tâches précises, mais échouent souvent dans des contextes complexes et nuancés.
- Exemple : Elle évoque les systèmes automatisés de prêts bancaires et de recrutement, qui prennent des décisions basées sur des modèles prédictifs, souvent sans que leurs concepteurs eux-mêmes ne comprennent totalement leur fonctionnement.
- Idée clé : Il est crucial de ne pas accepter aveuglément les décisions algorithmiques, car elles ne sont pas exemptes de biais ni d’erreurs.
Chapitre 2 : Justice (Quand les algorithmes jugent les humains)
- Thème : L’utilisation des algorithmes dans le système judiciaire
Les algorithmes sont de plus en plus utilisés pour prédire la récidive criminelle et pour aider les juges à prendre des décisions de libération conditionnelle.
- Exemple : L’algorithme COMPAS, utilisé aux États-Unis pour évaluer le risque de récidive des prisonniers, a été critiqué pour son biais racial. Des études ont montré que COMPAS attribuait un risque de récidive plus élevé aux Afro-Américains, même lorsque leur historique criminel était similaire à celui de prisonniers blancs.
- Idée clé : Les algorithmes de justice pénale ne sont pas neutres. Ils reflètent et amplifient les biais présents dans les données utilisées pour les entraîner.
Chapitre 3 : Medicine (Les algorithmes peuvent-ils sauver des vies ?)
- Thème : L’intelligence artificielle en médecine
Hannah Fry explore comment les algorithmes sont utilisés en médecine, notamment pour le diagnostic des maladies et la personnalisation des traitements.
- Exemple : Des algorithmes sont capables de détecter des cancers de la peau avec une précision supérieure à celle des dermatologues humains. De même, Google a développé un système d’IA pour diagnostiquer la rétinopathie diabétique avec des résultats impressionnants.
- Idée clé : L’IA a un énorme potentiel en médecine, mais elle soulève aussi des questions éthiques : qui est responsable en cas d’erreur ? Le médecin, le programmeur ou l’algorithme ?
Chapitre 4 : Cars (Les voitures autonomes et les dilemmes moraux de l’IA)
- Thème : L’éthique des véhicules autonomes
Les voitures autonomes doivent prendre des décisions instantanées qui impliquent parfois des choix moraux difficiles.
- Exemple : Hannah Fry évoque le célèbre dilemme du tramway appliqué aux véhicules autonomes : si une voiture autonome est confrontée à une situation où elle doit choisir entre heurter un piéton ou sacrifier ses passagers, que doit-elle faire ?
- Idée clé : Il est impossible de programmer un algorithme totalement éthique. Les véhicules autonomes devront faire des choix impossibles, et ces choix sont influencés par ceux qui les conçoivent.
Chapitre 5 : Crime (Prédire les crimes avant qu’ils ne se produisent)
- Thème : L’IA dans la police et la surveillance
Hannah Fry analyse le concept de prédiction policière, où des algorithmes tentent d’anticiper les crimes avant qu’ils ne surviennent.
- Exemple : Aux États-Unis, la police utilise des logiciels comme PredPol, qui prédit les lieux où des crimes sont susceptibles d’être commis en se basant sur des données historiques. Cependant, ces systèmes sont biaisés : si les forces de l’ordre patrouillent davantage dans certains quartiers, les algorithmes vont automatiquement suggérer d’y concentrer encore plus d’interventions, renforçant ainsi les discriminations systémiques.
- Idée clé : L’IA dans le maintien de l’ordre pose un problème circulaire : en se basant sur des données biaisées, elle renforce ces mêmes biais, créant une prophétie auto-réalisatrice.
Chapitre 6 : Art (Peut-on enseigner la créativité aux algorithmes ?)
- Thème : L’IA et la créativité
Les algorithmes peuvent peindre, composer de la musique et écrire des textes, mais peuvent-ils être véritablement créatifs ?
- Exemple : Fry évoque le programme AIVA, une IA capable de composer de la musique classique dans le style des grands compositeurs. Cependant, bien que techniquement impressionnant, ce type d’algorithme n’invente rien de fondamentalement nouveau, mais recycle des schémas existants.
- Idée clé : La créativité humaine repose sur des émotions, des expériences et des intentions qui échappent encore aux algorithmes.
Chapitre 7 : Data (Sommes-nous devenus prévisibles ?)
- Thème : L’ère de la surveillance et de la manipulation des données
Nous vivons dans un monde où chaque action que nous faisons en ligne est enregistrée, analysée et exploitée par des algorithmes.
- Exemple : Elle évoque l’affaire Cambridge Analytica, où des algorithmes ont utilisé des données personnelles pour manipuler des élections et influencer le comportement des électeurs.
- Idée clé : Nos comportements sont de plus en plus prédictibles et manipulables par des algorithmes qui savent comment capter notre attention et influencer nos décisions.
Conclusion : Vers un futur algorithmique éthique ?
Hannah Fry clôt son livre en insistant sur l’importance de ne pas diaboliser ni glorifier l’IA. Les algorithmes sont des outils puissants, mais nous devons comprendre leurs limites,
- les algorithmes ne sont pas neutres : ils reflètent les préjugés véhiculés tant par les données des données que par les concepteurs.
- L’IA peut surpasser l’humain dans des tâches spécifiques, mais pas dans le jugement moral ou la créativité.
Nous devons ainsi exiger plus de transparence et de responsabilité des systèmes algorithmiques ..
10. Innovations matérielles (Hardware Innovations)
- Edge AI : les progrès de l'informatique périphérique (Advances in edge computing) ont permis aux modèles d'IA de s'exécuter sur des appareils tels que les smartphones, les drones et les appareils IoT, réduisant ainsi la latence et améliorant les performances en temps réel.
- Informatique quantique (Quantum Computing): Bien qu'elle en soit encore à ses débuts, l'informatique quantique (quantum computing) a le potentiel de révolutionner l'IA en résolvant des problèmes complexes qui sont actuellement insolubles pour les ordinateurs classiques.
"Edge AI: Convergence of Edge Computing and Artificial Intelligence", dir. Xiaofei Wang, Yiwen Han, Victor C. M. Leung, Dusit Niyato, Xueqiang Yan et Xu Chen (2020)
Cet ouvrage propose une analyse approfondie de la convergence entre l'intelligence artificielle (IA) et le calcul en périphérie (edge computing). Le calcul en périphérie, ou Edge Computing, est une méthode de traitement des données qui consiste à effectuer les opérations informatiques au plus près des sources de données, c’est-à-dire à la périphérie du réseau, plutôt que dans un centre de données centralisé (cloud). Ainsi, au lieu d’envoyer les images capturées par une caméra de sécurité vers un serveur distant pour analyse, l’algorithme d’intelligence artificielle (IA) fonctionne directement dans la caméra elle-même ou sur un appareil local (comme une passerelle IoT).
L’intelligence artificielle (IA), en particulier l’apprentissage automatique (machine learning) et l’apprentissage profond (deep learning), dépend souvent de grandes quantités de données. L’edge computing joue un rôle clé en améliorant la réduction de la latence (temps de réponse), ainsi dans des applications critiques (voitures autonomes, chirurgie assistée par IA, ou réalité augmentée), lorsqu'une décision doit être prise instantanément. Il en est de même en terme de sécurité : les données sensibles (comme celles des caméras de surveillance ou des dispositifs médicaux) restent locales, réduisant les risques de fuite lors de leur transfert sur Internet. Enfin, traiter les données localement signifie envoyer moins de données vers le cloud, réduisant ainsi les coûts de transmission, particulièrement avec de grandes quantités de données (vidéo, audio, IoT). Et l’IA en périphérie permet aux dispositifs de fonctionner même sans connexion Internet, essentiel pour des usages industriels, agricoles, ou militaires dans des zones à faible connectivité.
L'intérêt de "Edge AI: Convergence of Edge Computing and Artificial Intelligence" est de rassembler en un seul ouvrage des informations essentielles auparavant dispersées dans les domaines de la communication, des réseaux et de l'IA.
"Quantum Computing: An Applied Approach", by Jack D. Hidary (2019, 2021)
Analyse le potentiel de l'informatique quantique (quantum computing) pour révolutionner l'IA et résoudre des problèmes complexes. Examine comment les innovations matérielles permettent de nouvelles capacités d'IA (how hardware innovations are enabling new AI capabilities). Il est structuré en trois parties principales, "Fondations de l'informatique quantique", "Algorithmes et applications", "Outils mathématiques", et est est accompagné d'un site GitHub fournissant du code source, des exercices supplémentaires et des mises à jour, ce qui en fait une ressource précieuse pour les étudiants et les professionnels souhaitant approfondir leurs compétences en programmation quantique.
On rappelle que l'informatique quantique est un domaine émergent qui exploite les principes de la mécanique quantique pour effectuer des calculs. Contrairement à l'informatique classique, qui utilise des bits représentant soit un 0 soit un 1, l'informatique quantique utilise des qubits. Un qubit peut exister simultanément dans une superposition des états 0 et 1, ce qui signifie qu'il peut représenter les deux états en même temps. Cette propriété permet aux ordinateurs quantiques de traiter une quantité massive d'informations en parallèle, offrant ainsi le potentiel de résoudre certains problèmes beaucoup plus rapidement que les ordinateurs classiques.
Les fondements de l'informatique quantique reposent sur plusieurs concepts clés :
- Superposition : Comme mentionné, un qubit peut être dans une combinaison linéaire des états 0 et 1, ce qui lui permet de réaliser des calculs sur plusieurs états simultanément.
- Intrication (ou enchevêtrement) : Il s'agit d'un phénomène où deux qubits deviennent liés de telle manière que l'état de l'un dépend directement de l'état de l'autre, indépendamment de la distance qui les sépare. Cette propriété est essentielle pour le traitement de l'information quantique et pour des applications telles que la cryptographie quantique.
- Interférence : Les amplitudes de probabilité associées aux états quantiques peuvent interférer de manière constructive ou destructive. En concevant des algorithmes qui favorisent les interférences constructives pour les solutions correctes et destructives pour les incorrectes, les ordinateurs quantiques peuvent augmenter la probabilité d'obtenir le bon résultat lors de la mesure.
Ces principes permettent aux ordinateurs quantiques de résoudre certains problèmes, comme la factorisation de grands nombres premiers ou la recherche dans des bases de données non structurées, plus efficacement que les ordinateurs classiques. Cependant, la construction de tels ordinateurs est extrêmement complexe en raison des défis liés à la décohérence et à la correction d'erreurs quantiques...
"Artificial Intelligence: A Modern Approach" , Stuart Russell & Peter Norvig (3e édition, 2009 ; 4e édition, 2020)
Souvent considéré comme la "bible" de l'IA, ce livre offre une couverture complète des concepts fondamentaux de l'IA, y compris la logique, les algorithmes d'apprentissage, les réseaux neuronaux, et bien plus encore. C'est un manuel essentiel pour quiconque souhaite comprendre l'IA en profondeur, un livre riche en exemples, illustrations, incluant des exercices adaptés aux débutants comme aux étudiants avancés...
".. For thousands of years, we have tried to understand how we think; that is, how a mere handful of matter can perceive, understand, predict, and manipulate a world far larger and more complicated than itself. The field of artificial intelligence, or AI, goes further still: it attempts not just to understand but also to build intelligent entities. AI is one of the newest fields in science and engineering. Work started in earnest soon after World War II, and the name itself was coined in 1956. Along with molecular biology, AI is regularly cited as the “field I would most like to be in” by scientists in other disciplines. A student in physics might reasonably feel that all the good ideas have already been taken by Galileo, Newton, Einstein, and the rest. AI, on the other hand, still has openings for several full-time Einsteins and Edisons. AI currently encompasses a huge variety of subfields, ranging from the general (learning and perception) to the specific, such as playing chess, proving mathematical theorems, writing poetry, driving a car on a crowded street, and diagnosing diseases. AI is relevant to any intellectual task; it is truly a universal field.
Depuis des milliers d'années, nous essayons de comprendre comment nous pensons, c'est-à-dire comment une simple poignée de matière peut percevoir, comprendre, prédire et manipuler un monde beaucoup plus vaste et compliqué qu'elle. Le domaine de l'intelligence artificielle, ou IA, va encore plus loin : il tente non seulement de comprendre, mais aussi de construire des entités intelligentes. L'IA est l'un des domaines les plus récents de la science et de l'ingénierie. Les travaux ont commencé sérieusement peu après la Seconde Guerre mondiale, et le nom lui-même a été inventé en 1956. Avec la biologie moléculaire, l'IA est régulièrement citée comme le « domaine dans lequel j'aimerais le plus travailler » par des scientifiques d'autres disciplines. Un étudiant en physique peut raisonnablement penser que toutes les bonnes idées ont déjà été énoncées par Galilée, Newton, Einstein et les autres. L'IA, en revanche, a encore de la matière à penser à revendre pour plusieurs Einstein et Edison à plein temps. L'IA englobe actuellement une grande variété de sous-domaines, du plus global (apprentissage et perception) au plus spécifique, comme jouer aux échecs, prouver des théorèmes mathématiques, écrire de la poésie, conduire une voiture dans une rue bondée et diagnostiquer des maladies. L'IA peut être désormais, et très concrètement, à toute tâche intellectuelle ; il s'agit véritablement d'un domaine devenu universel.
"WHAT IS AI? We have claimed that AI is exciting, but we have not said what it is. In Figure 1 Stuart Russell & Peter Norvig see eight definitions of AI, laid out along two dimensions. The definitions on top are concerned with thought processes and reasoning, whereas the ones on the bottom address behavior. The definitions on the left measure success in terms of fidelity to human performance, whereas the ones on the right measure against an ideal performance measure, called rationality. A system is rational if it does the “right thing,” given what it knows. Historically, all four approaches to AI have been followed, each by different people with different methods. A human-centered approach must be in part an empirical science, involving observations and hypotheses about human behavior. A rationalist approach involves a combination of mathematics and engineering. The various group have both disparaged and helped each other. Let us look at the four approaches in more detail ..."
QU'EST-CE QUE L'IA ? Stuart Russell et Peter Norvig présentent huit définitions de l'IA, réparties selon deux dimensions, dans la partie supérieure, on parle de processus de pensée et de raisonnement, dans celle qui suit de comportement. Les définitions de gauche mesurent le succès en termes de fidélité à la performance humaine, tandis que celles de droite se réfèrent à une mesure de performance idéale, appelée rationalité. Un système est rationnel s'il fait la « bonne chose », compte tenu de ce qu'il sait. Historiquement, les quatre approches de l'IA ont été suivies, chacune par des personnes différentes avec des méthodes différentes. Une approche centrée sur l'homme doit être en partie une science empirique, impliquant des observations et des hypothèses sur le comportement humain. Une approche rationaliste implique une combinaison de mathématiques et d'ingénierie. Les différents groupes se sont à la fois dénigrés et aidés les uns les autres. Examinons les quatre approches plus en détail... "