IA : Homo homini lupus est

Le rapport AI Index 2019, publié en décembre sous l'autorité de plusieurs universités américaines (notamment Stanford) et de l'entreprise OpenAI (comptant comme soutiens des représentants de SpaceX, Paypal, Microsoft, Google ou Amazon), met en avant une augmentation importante du nombre de publications scientifiques traitant de l'intelligence artificielle (IA) en vingt ans, atteignant presque 3% de l'ensemble des publications scientifiques en 2018. Malgré l'intérêt que suscite les technologies liées à l'IA et derrière les effets d'annonce sensationnels relayés par la presse spécialisée ou généraliste, le rapport souligne que ces technologies n'ont pas encore tenu leurs promesses.

Pouvoir, surveillance, discrimination

Kate Crawford, cofondatrice de l'AI Now Institute, revenait quant à elle en septembre sur les implications sociales de ces technologies lors d'une conférence à l'ENS, rapportée par Hubert Guillaud. Elle montre à l'aide de nombreux exemples que « les biais sont devenus le matériel brut de l’IA », d'abord parce que le profil des ingénieurs qui conçoivent les algorithmes d'apprentissage est très homogène (des hommes blancs aisés) et ensuite parce que les jeux de données servant de base d'apprentissage pour les IA ne sont pas représentatifs. Paradoxalement, vouloir améliorer ces jeux de données reviendrait à accumuler plus de données sur les groupes minoritaires, c'est-à-dire aggraver et faciliter la surveillance dont ils peuvent être victimes, sans même parler de la question du non-respect de la vie privée. Ainsi, au lieu de concourir à une société plus juste, ces technologies « renforcent des biais culturels et les automatisent », résume Hubert Guillaud. L'essai Excavating AI met à jour ces mécanismes, soulignant la responsabilité de leurs concepteurs dans la production des discriminations. Kate Crawford note que la mise en œuvre de bases de données centralisées doublées d'architectures techniques puissantes mais opaques semble renforcer et légitimer les modèles politiques autoritaires qui émergent aujourd'hui.

Cols blancs et microtravailleurs

Fin novembre, le think tank social-libéral américain Brookings Institute jugeait dans un rapport que le développement de l'IA, particulièrement efficace pour des tâches d'organisation, de jugement et d'optimisation, aurait dans les années à venir un impact important sur les postes de cadres, notamment dans les domaines de l'industrie (chimie, physique, nucléaire), tandis que la robotisation impacterait plutôt les postes d'exécution. Cependant, les transformations du travail induites par l'IA semble également toucher les travailleurs pauvres, comme le montre la première étude sur les microtravailleurs parue en France en mai dernier. L'IA nécessitant d'être entraînée à partir d'une très grande quantité de données avant d'être efficace, celles-ci sont produites (identification d'objets, enregistrements vocaux, traductions...) par un réservoir de travailleurs précaires estimé à 230000 personnes en France, pour qui ces micro-tâches de très courte durée constituent une activité secondaire, voire tertiaire.

Limites de l'IA

L'IA désigne généralement des logiciels de reconnaissance automatique de schémas existants, rendue possible grâce à la répétition de tests effectués sur des bases de données très importantes. Cette technologie se base sur du matériel informatique traditionnel et nécessite une capacité de calcul et une énergie colossale pour fonctionner, alors même que la miniaturisation des transistors et de fait l'augmentation des capacités de calcul des processeurs ralentissent depuis une quinzaine d'années. Cela s'explique autant par des motifs techniques, les limites physiques de la technologie actuelle ayant été atteintes, qu'économiques, le coût d'adaptation des chaînes de production à un niveau plus élevé de miniaturisation étant démesuré. Ce coût prohibitif participe de fait à la concentration des acteurs du secteur des semi-conducteurs. D'autre part, dans la mesure où ce modèle de conception matérielle captait tous les investissements, les autres modèles d'architecture matérielle étaient jusqu'ici cantonnés à un statut expérimental. Les limites actuelles, combinées aux problèmes énergétiques et climatiques, pourraient changer la donne selon Alain Cappy, chercheur en électronique, qui invite à développer une « innovation parcimonieuse » dans un entretien accordé à la revue Industrie & Technologie en novembre.

Modèle neuromorphique

Plusieurs laboratoires français travaillent actuellement sur des réseaux de neurones artificiels, inspirés de l'architecture du cerveau. Ce modèle mobilise plusieurs techniques permettant d'augmenter nettement l'efficacité énergétique, comme la communication asynchrone, la communication analogique plutôt que numérique pour certaines tâches, la diminution de la précision pour les tâches qui n'en requiert pas (ce qui n'est pas possible avec le modèle de Von Neumann dans la mesure où l'horloge contrôle l'ensemble des échanges de manière synchrone), le rapprochement de la mémoire et de l'unité de calcul, la limitation des accès à la mémoire (qui représentent 90% de la consommation énergétique) ou encore l'utilisation de composants alternatifs aux transistors (encore utilisés par certains chercheurs car polyvalents, très bien connus et pouvant rapidement être mis en œuvre à grande échelle). Plusieurs applications sont détaillées dans le dossier d'Industrie & Technologie consacré à l'informatique neuromorphique : capteur à vision événementielle permettant l'analyse en temps réel, mémoires résistives à codage impulsionnel analogique et calcul dans la mémoire à l'échelle nanométrique, communication entre électronique et vivant via l'utilisation des courants de fuite des transistors classiques… Toutes ont en commun la recherche de l'efficacité énergétique.

Équilibre des forces

Au-delà des conséquences de l'IA sur l'emploi, les politiques sociales ou l'environnement, ses utilisations à des fins de discrimination raciale ou encore de tactique militaire, encouragées par un modèle capitaliste toxique, indiquent que l'IA est en mesure de modifier l'équilibre politique global. De nombreux pays tentent d'encadrer son développement, à l'image de la Russie où une loi a été promulguée en ce sens en novembre. A l'échelle internationale, le Global Partnership on Artificial Intelligence (GPAI) est en cours de création et ses futurs membres se sont réunis fin octobre à l'occasion du Global Forum on AI for Humanity. Ce groupe d'experts des pays de l'OCDE (chercheurs, représentants nationaux, entreprises) a vocation à produire des recommandations aux États en matière d'IA, sur le modèle du GIEC.

Liens généraux :