Quand des entrepreneurs essaient de nous faire avaler des couleuvres
« L’IA en quelques mots, c’est d’éliminer le doute dans la vie et de déterminer l’action à prendre… » (extrait tiré de la propagande pour l’IA)
« Le réel suppose l’incertitude et la persistance du doute, c’est le lot tragique et insurmontable de l’existence » (Sadin, 2018 : 97)
Introduction
Lorsque j’ai commencé à m’intéresser à l’IA, je me disais que, n’étant pas une personne très branchée, et indifférente aux nouvelles technologies, ça serait difficile d’écrire un essai sur ce thème. Le travail s’annonçait colossal. Toutefois, plus je lisais sur le sujet, plus je m’apercevais que l’IA, ou certaines de ses fonctionnalités, étaient déjà présentes dans ma vie (services utilisés et navigation web) et qu’elle exerçait un certain pouvoir sur mes actions, particulièrement dans ma vie professionnelle. J’apprenais aussi que la recherche en IA allaient encore plus régir mes actions dans le futur, et cela, sans que je leur donne mon accord. Les applications récentes sont déjà capables de capter des données émanant de nos corps, de nous accompagner à travers les différentes expériences, mais surtout, d’influer notre expérience au monde réel. Des chaînes de montage sans humains, des magasins sans caissières, des drones pour livrer des colis ou de la bouffe, des téléséries superficielles à l’infini : les interactions humaines disparaissent peu à peu de nos vies. Je ne sais pas pour vous, mais moi je refuse de vivre dans un tel monde.
Dans cet article, les enjeux liés aux IA vont tout d’abord être abordés, ensuite, il y a aura des exemples d’utilisation de l’IA dans divers champs de pratique, et enfin, cet essai se terminera sur le positionnement idéologique du développement en IA.
Les enjeux. Pourquoi s’y intéresser?
Mis simplement, le développement de l’IA déterminera comment nous serons exploité-e-s durant le reste de ce siècle. Présentement, la population semble complètement inerte face au développement des IA. Certaines personnes expriment une méfiance, d’autres se limitent tristement à la question du droit à la vie privée, mais peu comprennent l’ampleur de son pouvoir. D’abord, les humains sont des êtres sociaux; on interagit constamment ensemble. L’IA se place entre toi et l’autre : on entre en relation à travers des applications. Elle nous informe et nous recommande même la manière de se comporter avec l’autre. Il y a de quoi s’inquiéter.
À l’opposé, plusieurs personnes s’enthousiasment face à l’IA, comme devant n’importe quel progrès technique d’ailleurs, et répètent naïvement le discours des entrepreneurs en IA. La promotion des nouvelles technologies numériques est très présente dans les médias traditionnels et les réseaux sociaux, car les entrepreneurs en IA ont compris que pour neutraliser les résistances futures, il fallait occuper le terrain avec leur propagande en vue d’influencer les opinions (les rendre favorables à l’IA). Dans diverses publications consultées, j’ai surtout lu des promesses, ou pire, des fantasmes d’entrepreneurs. Si les nouvelles technologies sont si merveilleuses, pourquoi jusqu’à aujourd’hui, elles n’ont fait que reproduire l’état des choses?
L’IA à Montréal
950 millions sur cinq ans du fédéral, 329 millions sur cinq ans du provincial, 2,5 milliards à travers le Canada
L’IA est l’enjeu économique du siècle. Logiquement, elle devrait constituer un champ de bataille pour les luttes sociales. Montréal, comme plusieurs métropoles de ce monde, cherchent à attirer (par divers avantages fiscaux) les grands acteurs de l’IA. Les différents paliers de gouvernement investissent des millions en fonds publics pour soutenir la recherche et le développement (incubateurs de start-up). Les grandes compagnies, Alphabet (Google), Amazon, Facebook, Microsfot, Thales… ouvrent des bureaux de programmeurs dans les grands centres urbains, investissent des millions mais vont surtout chercher des subventions gouvernementales. Des firmes de génie-conseil sont créés et offrent d’accompagner les villes, les forces policières, les industries ou les PME dans leur virage numérique.
Dans le milieu montréalais, le professeur et entrepreneur Yoshia Bengio est une figure importante, ainsi que son collègue Yann LeCun et Geoffrey Hinton. En 1993, Bengio a fondé l’Institut québécois d’intelligence artificielle, aujourd’hui l’Institut des algorithmes d’apprentissage de Montréal, qui rassemble des chercheurs de l’Université de Montréal et de l’Université McGill.
Aujourd’hui, cet organisme compte 300 chercheurs représentant 15 facultés. Ces chercheurs universitaires collaborent activement avec les grandes entreprises numériques de ce monde. Bengio est aussi membre d’IVADO, l’Institut de valorisation des données. Ivado est un concentré d’experts à Montréal faisant « le pont entre l’expertise académique et les besoins de l’industrie ». MILA, IVADO, Thales, Element AI et d’autres escrocs se sont récemment installés dans le Mile-Ex, déclaré comme quartier central de l’IA à Montréal. Les chercheurs s’installent à Montréal car il existe un « écosystème favorable » : des fonds publics, de la formation de la main d’œuvre financé par l’État, des anciens espaces industriels pas chers, des universités, des acteurs de l’industrie numérique, le bilinguisme, etc. Des programmes d’étude collégial et universitaire voient le jour « afin de former une main d’œuvre opérationnelle susceptible de répondre aux demandes et aux besoins des entreprises ». La collaboration entre l’État, les universités et les corporations se fait de plus en plus étroite.
En novembre 2017, Bengio et une équipe de lèches-culs ont lancé le projet Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Afin d’avoir une acceptabilité sociale de l’IA, l’équipe a procédé à un exercice très contrôlé de participation et consultation citoyenne, pour ensuite rédiger des principes éthiques qui encadreraient ce développement (voir la déclaration sur declarationmontreal-iaresponsable.com). Sans surprise, la Déclaration constitue une vraie joke, car les principes éthiques sont vides de tout pouvoir d’action et elle se centre uniquement sur une gestion des risques. Tout comme les sommets sur l’environnement, on déblatère des discours et énonce des principes pour continuer à ne rien faire face aux réels problèmes.
Le cahiers promotionnels de l’IA
Parmi les nombreux articles parus dans les médias, ceux qui m’ont le plus marqués font partie d’une série publiée dans le Devoir. Issue d’une collaboration entre journalistes du Devoir, des pigistes et des individus provenant des entreprises même de l’IA, la série s’intitule cahiers spéciaux sur l’IA. L’intérêt d’analyser le discours contenu dans ces articles est de mettre en évidence les notions-clés utilisés dans le milieu de l’IA, ainsi que les croyances et perceptions sur l’IA que les promoteurs aimeraient que nous adoptions.
Dès le premier cahier, on nous promet que l’IA va aider nos gentils gestionnaires à mieux rationaliser l’organisation du travail et à réduire les dépenses des services publics. On nous y explique que l’IA va permettre aux entreprises de recueillir des tonnes d’informations sur nous et qu’elle va les aider à mieux répondre à nos besoins. Dans tous les articles, on nous répète que l’IA va bénéficier à tout le monde.
Dans le cahier spécial IA et environnement, on nous parle de baisse de consommation d’énergie et de gain de productivité, comme quoi développement durable rime avec capitalisme. On qualifie l’IA d’écolo car elle permet des « transports plus efficaces » et même de « mieux gérer les ressources de la planète ». On ne remet surtout pas en question l’omniprésence des automobiles et camions, et on ne questionne surtout pas les ressources utilisées et l’énergie nécessaire pour faire fonctionner tous les dispositifs de l’IA. Mais le pire, c’est quand un journaliste s’excite devant un projet de gratte-ciel futuriste en forme d’iceberg.
Les notions-clés utilisés dans cette propagande sont en parfait accord avec le discours managérial contemporain : « optimisation des opérations », « outils d’aide à la décision », « aider à prendre les décisions en temps réel et transformer une prédiction en action », « [n]otre objectif est d’améliorer la vie des gens » (lesquels?) et « pour les aider à être compétitives sur le marché mondial ».
Quelques verbes reviennent souvent dans ce discours. Le verbe prédire est abondamment utilisé. Par exemple, l’IA permet de prédire des problèmes, des événements et des chutes. En santé, l’IA va « mieux déceler, voire de prédire » des maladies. Selon les promoteurs, l’IA permettra de suggérer un traitement, donner de meilleurs soins, diminuer la mortalité ou sauver de nombreuses vies, améliorer la qualité de vie, tout en créant des bénéfices et diminuer les coûts. Les développeurs ont une vision naïve, déterministe et simpliste de la vie.
Le verbe devoir réapparaît souvent aussi, surtout lorsque la question éthique est abordée. Pour éviter les dérives, les entrepreneurs devront faire ceci et cela, afin que l’IA bénéficie à tout le monde.
Une autre notion abondamment utilisée est celle d’acceptabilité sociale : les articles nous font vite comprendre que les acteurs de l’IA cherchent désespérément à obtenir l’acceptation sociale. Et ils se font convaincants : on doit s’« assurer au préalable d’une acceptation sociale sans faille ». On nous promet même « une appropriation sociale harmonieuse, juste et respectueuse de ces changements technologiques ». Comment? En garantissant la confidentialité des données. Comme si rien d’autre ne pose problème.
La question de la confidentialité est le problème le plus visible, car ces technologies s’assurent « d’avoir la meilleure connaissance possible des individus » par « les appareils de mesure personnels connectés », comme par exemple les maisons intelligentes, les capteurs de données physiologiques et les voitures autonomes. Les acteurs de l’IA se veulent rassurants et mettent divers mécanismes en place pour encadrer les pratiques. Ils sont même partie prenante des comités éthiques ou d’autres mécanismes de régulation. En fait, ils cherchent à réduire la réflexion critique à la question de la protection de la vie privée, mais le débat va au-delà de cela, c’est le rapport à la technique qui est en jeu. Quelle sorte de vie sera menée sous un environnement d’IA? Nous assistons à l’avènement d’une société encore plus conformiste : « La technologie issue des recherches que nous menons aujourd’hui va être partout dans nos vies », « le système est sur le point d’être déployé dans toutes les sphères de la société » et « on a la prétention de développer des outils qui auront un impact sur toute la société ».
La technologie sera partout autour, près, coller et en-dedans de nous. Chaque action sera déterminée par un algorithme. Concrètement, pas à chaque fois, mais c’est ça l’idée. L’IA nous accompagnera dans tous nos choix. Ce problème n’est pas discuté. Les ‘‘progressistes’’ de l’IA parlent de confidentialité des données personnelles, reconnaissent la présence de biais de programmation et les discriminations induites par les algorithmes, et prennent même position contre l’usage militaire ou policier de leurs technologies, affirmant que l’IA« ne devraient pas pouvoir tuer des humains » et « donc pas pouvoir s’allier avec le secteur militaire ». La réalité c’est qu’il y a déjà des entreprises qui fournissent des technologies numériques au secteur militaire et aux forces policières. Ils le font, indirectement, par des intermédiaires. Tout technique développée devient accessible pour les armées.
Les différents acteurs de l’IA ont une peur bleue qu’elle soit rejetée. Dans plusieurs articles, les acteurs mettent en garde contre tout ce qui peut freiner ou contrôler le développement de nouvelles technologies : « Nous ne devons pas avoir des réflexes conservateurs afin de ne pas freiner le développement économique potentiel ». Comme tout bon progressiste, il ne suffit que de qualifier les discours discordants de conservateurs pour que le troupeau reste en rang.
Ce que l’IA n’est pas
L’informatique n’est plus ce qu’il a été. Elle est passée d’un système d’exploitation accumulant une tonne de données à des systèmes (basés sur des algorithmes) prétendant dévoiler la vérité sur toutes sortes de situations, s’ajustant aux différentes données et suggérant quelle action prendre. Les programmes ne sont pas un simple outil à notre disposition pour aider à mieux s’organiser, ils orientent carrément comment on gère nos affaires : quoi acheter, quel restaurant choisir, où sortir faire la fête, quels médicaments prendre. Ce sont des algorithmes utilisés par les banques et les assurances pour déterminer si nous sommes solvables (ou admissibles) ou non. Ce sont des algorithmes utilisés dans les entrepôts et les bureaux qui indiquent aux employé-e-s quels gestes ils doivent poser et à quel moment. Dans les milieux de travail, on se fie de plus en plus aux protocoles et algorithmes pour déterminer les actions à prendre. Dans un contexte d’austérité, les protocoles constituent la réponse à la surcharge des travailleurs-euses, car ils simplifient la décision et ellils accélèrent la cadence. En nous soumettant à des équations, on délaisse notre pouvoir de réfléchir, d’analyser, de décider et d’agir.
Les APN (ex. Siri, Cortona, Google Now) constitue l’exemple parfait d’une prise en charge de nos vies personnelles par des applications. À l’aide de capteurs placés sur le corps, des appareils recueillent des données personnelles et sont analysées par les APN pour vous accompagner et vous prodiguer des conseils. Pour faciliter leur présence auprès de nous, ces APN sont munis d’une voix réconfortante, amicale et féminine afin d’installer une relation hyperpersonnalisée et ininterrompue avec l’utilisateur-trice. Ces interfaces conversationnelles ont un objectif commercial et utilitaire, car toute solution à vos problèmes personnels constitue une marchandise. Les APN ont aussi un objectif normatif; ils répondent au souci de soi et nous prescrivent la bonne conduite dans telle ou telle situation. Maintenant, imaginez les conséquences…
Les chercheurs en IA conçoivent des systèmes pour reproduire ou imiter le comportement humain dans ses activités de raisonnement. Cependant, l’IA ne peut pas reproduire les comportements humains dans sa totalité, car nous sommes irréductibles et imprévisibles. L’IA procède plutôt à des équations afin de poser des actions programmées, mais de manière plus efficace que si c’était fait par un humain. Les robots sont moins onéreux que des employé-e-s et ils sont plus dociles, ils sont donc très profitables pour les employeurs.
L’IA n’est pas une réplique de notre cerveau biologique, ni une imitation de notre intelligence, elle est plutôt composée d’algorithmes insérés dans des systèmes informatiques (des programmes) faisant des calculs ultra-rapides. Les programmes sont créés par des chercheurs et des entreprises qui ont leurs propres intérêts. Cette fausse croyance est due aux chercheurs qui, bénéficiant de fonds financiers importants, mènent des recherches visant à ériger des protocoles modélisés sur le cerveau humain. Sans vergogne, ces chercheurs techno-scientifiques développent des notions empruntés au lexique des sciences neuronales : réseaux de neurones artificiels, puces synaptiques, processeurs neuronaux, algorithmes génétiques, émotions artificielles.
Il existe cette idée que les développeurs en IA fabriquent des robots réfléchissant comme des humains. Toutefois, dans la réalité, c’est plutôt l’inverse qui se passe : les systèmes de calcul amènent les humains qui l’utilisent, qui se fient aux résultats et qui ajustent leur conduite aux suggestions de l’IA, à devenir et à agir comme des automates. Le système « réfléchit » selon la langage des développeurs, mais dans les faits, un programme fait le calcul de ce qui est plus adéquat selon des critères pré-choisis et l’humain exécute, sans se poser de questions. Nous sommes réduits à de simples exécutants, comme les robots.
La reproduction des inégalités sociales
L’IA est composée des disciplines suivantes : sciences algorithmiques, cybernétique, informatique, robotique et mathématiques appliquées. Il n’est pas rare de voir la participation de neurologues, anthropologues, éthiciens, psychologues, sociologues et d’économistes dans les regroupements faisant la promotion des IA. Un dénominateur commun dans les recherches en IA est l’usage de superordinateurs ayant une capacité de calcul très élevée. Elles utilisent des logiciels de numérisation qui extraient puis capturent les données, pour ensuite être analysés par des cadres d’algorithmes. L’objectif de ces cadres est de cerner les répétitions dans une tonne de données. Les cadres deviennent plus spécifiques par l’apprentissage profond et par renforcement : lorsque les décisions prises par un système sont considérées adéquates par les programmeurs, le système conserve les algorithmes et les transpose sur d’autres données.
Toutefois, ce qui est considéré comme de « bonnes décisions » sont tout simplement celles qui reproduisent le monde tel qu’il existe. En réussissant à reproduire le monde existant, l’IA donne une impression d’objectivité. Alors, au lieu de résoudre les diverses difficultés de la vie et de proposer des possibilités d’actions, l’IA perpétue l’ordre des choses, ainsi que ses inégalités. Et par sa supposée objectivité, elle neutralise également notre capacité à changer le cours des choses et à faire advenir d’autres modes d’existence.
Les nouvelles technologies numériques sont donc capables d’évaluer une situation et de prendre des décisions en vue d’engager des actions correspondantes, mais toujours selon les normes et intérêts qu’elles portent en elles, i.e. qui y sont programmés. C’est ainsi qu’elles parviennent à renforcer les normes sociales et à orienter nos actions, à notre insu. En organisant le monde selon les normes sociales existantes, les technologies numériques reproduisent l’ordre social et elles nous désorganisent; elles imposent des relations marchandes et détissent nos liens avec autrui. Nos vies seront mieux administrés, certes, mais pas mieux vécus.
L’IA et le travail
Selon les experts, « 40 à 50% des emplois d’aujourd’hui auront disparu dans vingt ans » à cause des nouvelles technologies. Ces mêmes experts urgent le gouvernement à investir des fonds dans la formation technique et universitaire pour créer une « main d’œuvre opérationnelle » en IA. Les pertes d’emploi par changement technologique sont inhérentes à l’histoire du capitalisme industriel. On est passé par le travail à la chaîne, des tâches répétitives et la spécialisation des tâches, à une robotisation de la chaîne de production, aux délocalisations des industries, à l’optimisation du travail (ex. méthode lean), à la chasse aux temps morts, aux statistiques et autres méthodes de surveillance. Avec la présence en continue des technologies à nos côtés, tous nos actes seront évalués en temps réel afin de guider nos actes pour répondre aux exigences des entreprises. Imaginez votre boss à vos côtés en tout moment… Par exemple, les usages des ordinateurs sont monitorés, les employé-e-s sont ré-affecté-es à tout moment, la production de la journée est comparée avec celle des jours précédents.
L’IA vient aussi accentuer le phénomène d’externalisation des activités de production et la délocalisation. Concrètement, des logiciels permettent déjà à plusieurs entreprises (ex. commerce de détail) de comparer en temps réel les coûts des sous-traitants, de commander une partie de la marchandise, continuer de comparer, et changer de producteurs si les coûts se modifient. Cette nouvelle stratégie maintient les prix bas, ainsi que les salaires. Cela tire les conditions de vie vers le bas, ça désorganise la force de travail. Pire, cette stratégie est reproduite par les employé-e-s, qui comparent les trajets, les restos et les dates sans arrêts.
On entend fréquemment le discours que la machine améliore nos conditions de travail. Or, la cadence imposée par les machines n’allègent aucunement la charge de travail, elle dégrade plutôt nos conditions. Les technologies dans le milieu du travail procèdent à « un alignement des performances des personnes sur celles des systèmes » (Sadin, 2018 : p.148). Les performances ainsi calculées sont impossible à atteindre, ou du moins, à maintenir sur une longue période de temps, sans en tomber malade. Mais l’armée de réserve de travailleur-euse-s est grande, votre employeur s’en fout si vous êtes épuisé-e-s car un-e autre prendra votre place, et la cadence sera maintenue.
Dans le monde capitaliste, on a toujours essayé d’éliminer l’incertitude et le doute au travail. C’est pour cela que le travail est excessivement régi par des lois, règles, normes, certifications, protocoles, schémas, grilles, mais aussi des ordres professionnels et des comités disciplinaires. Néanmoins, tout cela ne change rien au fait que le doute demeure et que les erreurs ne sont jamais bien loin. C’est dans les années 90 que les premiers outils d’aide à la décision sont apparus; ils étaient basés sur les travaux de mathématiques au sujet des arborescences décisionnelles. Les bureaucrates y entrent des données recueillies sur les individus et les algorithmes donnent des réponses : Est-il solvable? Assurable? A t-il droit aux services d’aide? Ces outils appliquent des algorithmes programmés par des entreprises. Qu’est-ce qui guide et oriente les équations? Ce semblant d’objectivité fait en sorte qu’on s’y soumet facilement. C’est ce qu’on appelle la main invisible numérique.
On assistera à la fin des habilités relationnelles et communicationnelles dans les différents milieux de travail. Le travail d’équipe et de réflexion collective, les interventions coordonnées, la curiosité intellectuelle, tout cela se fait peu à peu remplacé par des outils d’aide à la décision. Il ne sera bientôt plus possible de prendre le temps de réfléchir, de discuter, d’échanger, de faire part de nos désaccords et de s’accorder avec nos collègues. On assistera à un appauvrissement des relations avec ceux/celles-ci et à la fin du travail interdisciplinaire. L’IA dénigre la parole et la prise en compte des autres. Les essais, la pluralité d’actes et le changements de direction font partie intégrante de plusieurs professions. Dans plusieurs métiers relationnels et manuels, on a besoin de savoir-faire subtils, d’user de notre intuition, de réfléchir aux situations et d’adapter nos gestes en cours d’action. Au nom de l’efficacité et de la productivité, les gestionnaires nous imposent des pratiques homogènes déconnectées des contextes et de la nature changeante de la réalité. Déjà qu’on subit une humiliation simplement par le fait d’aller travailler (le travail salarié implique de se faire exploiter), avec l’IA, on perd nos marges de manœuvre, les interactions avec les autres exploités, ainsi que l’aspect de jeu et de création dans nos actions.
Maintenant, allons voir comment l’IA se traduit dans les différents champs de pratique.
Dans le champ de la santé et des services sociaux
Le gouvernement du Québec a depuis longtemps soutenu l’innovation technologique dans le domaine de la santé et des services sociaux. L’arrivée des IA n’apporte pas avec elle une remise en question des modèles de gestion, elle repousse encore plus loin la rationalité cartésienne dans ce champ, c’est-à-dire le traitement des êtres vivants comme de simples objets ou marchandises. Prenons l’exemple du soutien à domicile. Après la mode des médecins à domicile, qui s’est plus ou moins avérée, les entrepreneurs de l’IA proposent maintenant le temps des médecins à distance (visites par écran) et des robots accompagnateurs assurant le suivi des personnes âgées. Une conséquence évidente de ce virage sera l’augmentation de la détresse et de l’isolement social des personnes âgées.
L’IA, nous promet-on, viendra désengorger les urgences et améliorera les services. On nous annonce aussi que l’IA « pourrait améliorer de manière rapide la compétence et l’expertise de ses équipes, en plus de permettre de gagner du temps et d’optimiser l’utilisation des ressources ». En d’autres mots, les outils d’aide à la décision remplaceront le jugement clinique des profesionnel-le-s et la surveillance informatique des employé-e-s permettra d’augmenter leur production. Au lieu de donner aux employé-e-s des conditions leur permettant de bien faire leur travail, on privilégie la productivité, le nombre de visites et les décisions prises par des algorithmes.
Des outils d’aide à la décision comme MYRIAD visent à capturer la manière de penser des experts, à « formaliser ce qui est dans leur tête », pour ensuite la reproduire ailleurs. Ce logiciel mimique leur réflexion et leur jugement, il les simplifie, ce qui ouvre la porte aux incohérences. D’autres outils, tel que l’OCCI, utilisé en CLSC et centre hospitalier, dirigent l’évaluateur-trice dans son évaluation et propose une tonne de facteurs, indices et problèmes à considérer lors de la prise de décision, noyant les éléments importants dans une marée d’informations impertinentes générées par le programme. Les praticien-ne-s passent énormément de temps à entrer des données au lieu de réfléchir à la situation unique du patient. Leur rôle est réduit à de simples cueilleurs de données ensuite obligé-e-s de se fier aux résultats générés par des algorithmes pour déterminer la conduite que devra prendre l’équipe face à un-e patient-e. Enfin, l’usage du logiciel SSP est obligatoire à la DPJ. Le logiciel génère un rapport à partir des réponses fournies par les intervenant-e-s à des questions à choix multiples. Ce rapport est censé guider le professionnel dans l’évaluation d’un cas. Le problème est que les choix de réponses sont souvent incomplets et imparfaits. Les intervenant-e-s constatent aussi que l’évaluation faite par le logiciel ne correspond pas souvent à leurs conclusions, causant soit des actions non appropriées ou une perte de temps dans la justification de la non-correspondance.
Quant au programme Watson, il prétend être capable de collecter et analyser des données pour ensuite établir des diagnostics et proposer des traitements. Les médecins sont appelés à se fier sur ce programme pour décider d’un traitement au lieu d’effectuer une patiente évaluation d’un cas. Ces traitements sont énoncés par un programme conçu par des acteurs industriels, situés entre le monde médical et pharmaceutique. Ces derniers n’auront plus à faire du lobbying auprès des milliers de médecins, mais sur une seule entreprise. En 2017, Google a lancé le projet Verily. Ce projet a comme objectif de collecter le plus d’informations possibles émises par des corps humains. 10 000 participant-e-s ont accepté de se faire installer plusieurs capteurs sur leur corps et de donner des prélèvements (pendant quatre ans) dans le but de déterminer des biomarqueurs annonçant des pathologies. Les résultats de cette étude serviront à prédire des pathologies, des prédictions fondées sur des corps de privilégié-e-s occidentaux et émises par le secteur privé. L’implantation de ces logiciels constitue une porte d’entrée du secteur privé et de l’industrie numérique dans le domaine de la santé.
L’absence de données massives, ou la présence de données partielles, pose un problème grave à de tels systèmes. Autrement dit, si une bonne partie de la population refuse de partager leurs renseignements personnels, ces systèmes ne valent plus rien. Leur légitimité est donc en jeu : « nous devrons nous assurer d’avoir la meilleure connaissance possible des individus ». Comment l’IA va s’accaparer des données personnelles? Le consentement n’est jamais abordé dans leur propagande. Et les données sont-elles fiables? Rien ne m’empêche de fournir des données faussées. Le refus de consentir à partager nos renseignements est un moyen efficace pour saboter les IA en santé et services sociaux.
En éducation
Les promesses pleuvent aussi en éducation. J’en ai retenu deux : la correction automatique et l’enseignement personnalisé. Certaines tâches, plus techniques, sont dans la mire des entrepreneurs, qui cherchent à les automatiser, telles que la correction des évaluations et la recherche dans les bases de données. Qui a déjà fait un peu de correction sait que l’évaluation de la compréhension n’est pas une tâche évidente à réaliser; tu n’évalues pas seulement la présence de tel ou tel mot-clé dans la réponse, mais la compréhension de l’étudiant-e. L’évaluation par l’IA s’annonce catastrophique. La correction automatique favorisera donc les questions à choix multiples et les réponses copie-coller. On nous annonce aussi que « [d]es robots pourront également répondre aux questions des étudiants », ce qui m’étonnerait beaucoup… Mais même s’ils y arrivent, pourquoi dépersonnaliser le rapport prof-étudiant-e? Comment le fait d’interagir avec un robot permet de lutter contre le manque de motivation et l’isolement chez les étudiant-e-s? Les techniques développées servent uniquement un objectif économique; le but est de gagner du temps aux professeur-e-s et leur en donner plus à faire.
À défaut d’avoir un contact humain, les entrepreneurs promettent aussi l’enseignement personnalisé. Selon ce nouveau concept, les réponses des étudiant-e-s sont analysées en temps réel, tout au long de leur parcours scolaire, dans le but d’offrir une matière et des cours faits sur mesure, mais toujours orientés vers le besoin du marché (i.e. des entreprises). L’attente est grande, mais au-delà de la faisabilité douteuse, l’effet concret de ce type de parcours est de maintenir les étudiant-e-s dans leurs caractéristiques prises à un moment de leur vie et d’empêcher l’exploration de divers métiers. L’éducation, prise au sens large du terme, sert à faire découvrir de diverses manières d’être et de faire aux jeunes, et c’est à eux-elles de naviguer à travers ça et d’expérimenter.
En droit
Dans le domaine du droit, les entrepreneurs en IA travaillent surtout sur des programmes analysant la jurisprudence, évaluant les récidives et les peines, afin de prescrire des jugements. Ceci soulève automatiquement de la méfiance, car chaque cas est différent et ce qui a été fait dans le passé n’est pas garant de ce qui est juste. La reproduction de la jurisprudence signifie aussi une reproduction des discriminations du passé et l’impossibilité d’argumenter contre.
Les outils d’IA en droit comportent d’importants biais: les critères déterminants les appréciations de cas ont été établis par des humains, susceptibles comme tout le monde de se laisser guider par leurs préjugés, et de privilégier un groupe ou même de nuire à certains groupes. Aussi, les programmes d’IA n’ont pas d’autres choix que de se baser sur une classification des conduites normales et déviantes hors-contexte afin de fonctionner. Ce type de programme rappelle les travaux en sociologie de la déviance, qui, en résumé, s’amusait à faire des liens entre profil de pauvreté et criminalité.
L’objectif de tels outils est de prédire le jugement avant de constater les faits, de donner un verdict d’avance. La parole de l’accusé-e est dévalorisée, le bénéfice du doute est ignoré, on vise à éliminer l’aspect difficile mais cruciale de la justice, i.e. le débat contradictoire. La version de l’un met en perspective celle de l’autre. Chaque cas est singulier et ils sont souvent bien plus complexe qu’ils n’apparaissent. On remplace un exercice fastidieux par des protocoles prétendant énoncer une vérité objective. La défense aura le fardeau de prouver son innocence contre ce qui a été présenté par une machine au semblant neutre.
Usage militaire
Comme tous les grands avancements scientifiques et technologiques dans l’histoire, l’IA est utilisée par le complexe militaire. On assiste présentement à une numérisation du champ de bataille : GPS, satellite, drones. À l’aide d’équations et d’algorithmes, ces outils étendent la surveillance, analysent les menaces, prennent des initiatives et des décisions, et entrent en action. Les armées contemporaines peuvent mener une guerre sans déployer de présence humaine sur le terrain.
Selon plusieurs chercheurs montréalais, l’IA « ne devraient pas pouvoir tuer des humains, et les chercheurs ne devraient donc pas pouvoir s’allier avec le secteur militaire pour fabriquer des armes plus efficaces ». Récemment, des chercheurs montréalais ont appuyé une chercheuse américaine qui travaille à améliorer la reconnaissance faciale des personnes de couleur tout en affirmant qu’elle était contre l’usage de cette technologie par les forces policières. Toutefois, celle-ci est déjà utilisée par les militaires et les forces policières, alors on peut se demander pourquoi des chercheur-e-s de renoms tiennent-ils autant à dénoncer un phénomène auquel ils participent, directement ou indirectement. Donc, ils énoncent qu’ils ne devraient pas, mais ils le font déjà. Aussi, ils collaborent avec des entreprises qui vendent des technologies à l’armée ou à la police. Non seulement ils y participent, mais en améliorant les programmes (ex. reconnaissance faciale), ils renforcent le pouvoir coercitif des forces militaires et policières. Les chercheur-e-s/entrepreneur-e-s en IA sont des hypocrites.
La gestion numérique du monde municipal
La ville est assurément un des lieux qui attirent le plus l’attention des chercheurs-entrepreneurs, car les municipalités leur donnent un accès directs aux données recueillies. Par exemple, la Ville de Montréal donnent libre accès à toutes ses données aux entreprises : les données sur les résident-e-s, les services publics rendus ou provenant des études de population. Ces entreprises cherchent à connaître nos habitudes de vie, ajuster leurs produits et services à nos caractéristiques et ainsi, augmenter leur vente. La Ville ne donne pas seulement accès à ses données, mais facilitent leur cueillette directement par les entreprises. Nourrit de données en temps réel, les entreprises peuvent te suggérer leur produit/service (ex. véhicule autonome, restaurant, activité, etc.) selon l’endroit où vous êtes et le moment de la journée. Selon la Ville même, l’objectif est « le transfert de technologie vers les entreprises afin de produire de la croissance économique ».
Ce n’est pas étonnant que les villes laissent libres-cours aux entreprises, car elles ne font qu’administrer la chose publique, i.e gérer les citoyens et les services afin d’améliorer la vie et l’expérience des citoyens/consommateurs. Les municipalités modernes sont un non-lieu de vie collective, elles ont été conçues comme un espace marchand. Après une rationalisation croissante de la manière de gérer une ville (par la logique managériale), l’étape suivante est celle de l’administration de la chose publique par des algorithmes, car ceux-ci sont capables de gérer les citoyens/consommateurs de manière plus efficace que des individus.
Une ville intelligente est donc une ville qui s’autorégule, qui met en place des actions régulatrices de manière automatisée, par l’usage de programmes développés au privé. Chaque problème aura une réponse automatisée pour la régler. La ville intelligente sert de contexte à un réaménagement du territoire par la force. Par exemple, pour que la voiture autonome puisse se développer correctement, l’infrastructure routière devra être ajustée à son mode de fonctionnement : la signalisation, les voies, les panneaux, les feux, tout sera adapté afin de maintenir une « circulation optimale ». L’intérêt des villes pour cette industrie est strictement économique : placés à côtés des passagers, des capteurs recueilleront des informations et des assistants numériques leur suggéreront des activités marchandes.
Comment l’IA arrive à gérer nos vies? C’est en réduisant les éléments du réel à des chiffres afin qu’elle puisse l’analyser et la gérer. Mais on n’analyse pas la vie, seulement une facette de la vie, celle qui peut être réduite à un nombre. C’était par l’usage des mathématiques (recensement, enquête, sondage) que les villes et États géraient jusqu’ici nos vies, c’est maintenant par une appréhension numérique qu’on rend les phénomènes humains plus intelligibles et maîtrisables, qu’on cherche à encadrer nos comportements, et qu’on informe les entreprises de la conduite des citoyens.
Il y a une vingtaine d’année, revitaliser un quartier rimait avec gentrification, maintenant revitaliser rime avec tapisser la ville de capteurs, caméras, radars, etc. dans le but de collecter des données, les interpréter et agir sur le « problème ». La ville intelligente cherche à éliminer le hasard et à nuire les individus qui passent le temps sans rien faire, qui sont improductifs et qui ne consomment pas, autrement dit, qui flânent. Les divers dispositifs (programmes de reconnaissance faciale, lunettes intelligentes dont sont équipés certains policiers, caméras) servent à surveiller les piétons, repérer les comportements déviants, les décourager et les pénaliser. Au delà de la surveillance, l’IA vous organise, elle fait en sorte que les portes d’un magasin s’ouvrent devant vous, vous influence dans vos déplacements, vous suggère des besoins, étale les produits qui vous correspondent, rend votre expérience de magasinage plus efficace, et s’assure que vous y retournez au plus vite.
D’un espace public, les villes se transforment en gros centres d’achats pour condoistes. On nous a même enlevé le désir d’aller à la rencontre d’autrui pour le simple bonheur de le faire. L’IA permet d’accélérer l’atomisation de la vie sociale, où les individus, groupes et institutions sociales sont dispersés et sans liens, par laquelle chaque être humain déjà réduit par une rhétorique identitaire, est encore plus centré sur soi et pathétique. Les villes sont de plus en plus peuplées, mais on a de moins en moins l’occasion d’interagir avec les autres. Les commis et caissier-ère-s dans le secteur des services permettaient à plusieurs personnes de sortir de leur isolement quotidien, de créer des liens. Mais ils-elles se sont faits remplacé-e-s par des guichets (institution financière, STM, cinéma, restaurant, épicerie). Dans les quartiers gentrifiés, tu peux pratiquement vaquer à tes occupations sans devoir interagir avec quiconque.
La troisième partie de cet essai aborde le positionnement idéologique du développement de l’IA
La Déclaration de Montréal
Quand l’éthique perd toute crédibilité
« Les robots sont nos alliés (…) Ils nous permettent d’avoir des transports efficaces, donc de mieux gérer les ressources de la planète »
La Déclaration de Montréal est une stratégie de relations publiques mise en place par les entrepreneurs de l’IA afin d’obtenir une « acceptabilité sociale » de la population et ainsi poursuivre leurs projets en toute impunité. La Déclaration de Montréal a été le fruit d’un projet de consultation obscure et elle a abouti à une liste d’épicerie, énumérant des principes éthiques abstraits, ouverts à interprétation et sans réel pouvoir d’action. Une ébauche d’idées a été dévoilée lors du Forum IA responsable en novembre 2017, événement rassemblant grandes entreprises et chaires de recherche. L’ébauche a été rédigée suite à une consultation auprès des consommateurs de l’événement promotionnel. Un comité d’experts, réunissant chercheurs et entrepreneurs, ont ensuite pris une année pour rédiger la Déclaration, qui est sortie en décembre 2018, lors de la conférence Neural Information Processing Systems. Elle contient dix principes et huit recommandations à l’usage des gouvernements, des entreprises et des ordres professionnels. Les principes contenus dans la Déclaration sont supposés servir de balise à la recherche et à la législation.
Le milieu des affaires à Montréal souhaite « un développement inclusif, équitable et écologiquement soutenable de l’IA ». Pour y arriver, on nous sert des principes éthiques vide tout autant de contenu que de sens, centralisant le débat sur la question de la défense de la vie privée. La liste de principes ressemble au résultat d’un brainstorming de notions présentement au goût du jour dans le milieu progressiste: bien-être, autonomie, vie privée, solidarité, démocratie, équité, inclusion, diversité, prudence, responsabilité et développement soutenable. Tout le monde se sent écouté, c’est donc bien merveilleux. L’éthique permet ici d’occulter les réflexions critiques sur tous les autres enjeux.
Dès qu’on exprime une critique ou une précaution face à l’IA, on nous balance la notion d’éthique, comme si celle-ci peut à elle seule empêcher toutes les dérives. Les grandes entreprises créent même des cellules de réflexion éthique pour étouffer les inquiétudes. Les abus de pouvoir et les humiliations quotidiennes ne disparaissent pas avec l’implantation d’un comité éthique. Comme avec le greenwashing, la Déclaration constitue un exercice cosmétique pour rassurer la population : elle ne remet pas en question les idéologies (productiviste, techniciste, néolibérale) derrière le développement de l’IA, elle n’apporte même pas de surveillance ni de contrôle des intérêts financiers des grandes entreprises. Depuis le début de l’IA, le développement vise le bien-être et l’amélioration des conditions de vie des plus privilégiés de ce monde. L’éthique évite d’aborder la question de l’usage des IA dans notre vie quotidienne et de ses conséquences sur les êtres vivants (humains et non-humains), les relations et les bio-régions.
De la neutralité de la technologie
« il nous faut nous assurer de bien apprivoiser l’IA et de l’utiliser à bon-escient afin qu’elle demeure bénéfique pour la société »
« (Les robots) sont ce que nous faisons d’eux »
« les systèmes d’intelligence artificielle (SIA) seront bientôt capables de prendre leurs propres décisions »
Les développements scientifique et technologique sont influencés par le contexte social, culturel, politique et économique dans lesquels ils sont situés. Toutefois, les implications des nouvelles connaissances et technologies influencent à leur tour les activités sociales, culturelles, politiques et économiques. Dans certains cas, elles renforcent carrément les tendances de ces activités, comme la robotisation accrue d’une industrie. Et même, elles imposent graduellement de nouvelles conduites (ex. transports, objets connectés). L’usage d’une technologie particulière amène avec elle les infrastructures industrielles qui permettent son existence. On ne peut pas changer l’usage qu’on fait des technologies selon notre bon vouloir, car il y a des groupes mieux organisés et plus puissants qui ont des intérêts à les maintenir ou pas. Les technologies numériques sont donc construites socialement : elles ne sont pas neutres, elles véhiculent les mêmes logiques et valeurs que la civilisation dans laquelle on vit. Elles sont des systèmes exigeant notre soumission à ses règles (issues des normes de l’ordre établi).
La propagande sur le développement de l’IA s’inscrit dans le récit moderne de la neutralité scientifique et technologique, un récit qui l’isole de son contexte, c’est-à-dire du contexte dans lequel les entrepreneurs-chercheurs ont évolué. En d’autres mots, elle fait abstraction des intérêts et intentions à l’œuvre; ceux des États, des forces armées, des industriels et multinationales, des sociétés d’investissements et des grands investisseurs. Le développement de l’IA s’inscrit également dans l’idéologie du progrès de la civilisation industrielle: il est supporté par une rhétorique qui veut que le monde s’améliore indiscutablement grâce à l’innovation technologique. Le monde s’améliore surtout pour les plus privilégié-e-s et se dégrade pour le reste. Enfin, l’IA s’intègre clairement dans la modernité car tout comme la révolution industrielle, elle cherche à rationaliser toutes les sphères de la vie sociale.
Inscrites ainsi dans l’ordre naturel des choses, les avancés technologiques ne peuvent pas être remises en question sans être l’objet de moquerie désobligeante. Mais il faut être carrément aveugle pour ne pas voir que les technologies numériques ne sont pas neutres, ni qu’elles dépendent de l’usage qu’on en fait. Les nouvelles technologies numériques forment déjà les conditions matérielles indispensables à une rationalisation plus grande de l’organisation du travail et de la production. Elles imposent leur mode de fonctionnement et leur cadence partout où elles sont déployées, elles régissent la vie sociale avec une efficience sans cesse plus accrue.
Avons-nous vraiment le pouvoir sur les machines? Les nouvelles applications nous incitent à agir de telle ou telle façon. Par l’apprentissage profond, par la faculté auto-apprenante, par renforcement, les technologies numériques sont capables de se mettre à l’écoute de nos besoins et de capter nos signes physiologiques. Après un certain moment, elles forment une connaissance évolutive de nos comportements, de nos traits et nos patterns, elles sont capable de prédire nos comportements, et elles formulent des recommandations appropriées à chacun de nous. Autrement dit, elles infléchissent nos décisions au quotidien Ce n’est pas anodin que les investissements pleuvent dans ce domaine. Donc, qui a le contrôle sur qui? La technologie n’a jamais été aussi présente dans nos vies. Et elles ont été programmées pour le bénéfice de quelques corporations qui organisent le monde à leur convenance.
Stratégies de résistance
« Si les usagers se méfient et se détournent de ces outils, ça signifie moins de données. Or le principe même du bon fonctionnement des algorithmes, c’est de les nourrir avec des données les plus massives possible »
« L’absence de données peut aussi poser problème. »
Dans des entrevues effectuées auprès d’ouvriers et d’ouvrières de manufactures (présentées dans le documentaire The Truth About Killer Robots), il n’est pas rare de les entendre dire qu’ils/elles se sentent devenir des robots. En dictant les actions à entreprendre, l’IA affecte nos esprits. Les robots prennent des décisions et nous on exécute. Les possibilités de se réapproprier, de négocier ou de rejeter le travail s’amenuise. Il est de plus en plus difficile d’engager des marges de manœuvres dans notre travail, car nous sommes surveillé-e-s tout le temps, chaque geste qui s’écarte est automatiquement rappelé à l’ordre par un système expert. Nous sommes forcé-e-s de nous conformer. Comment alors mettre du sable dans l’engrenage de la robotisation de la chaîne de montage ou dans les services?
La principale façon est bien évidement le sabotage. Le sabotage de l’IA peut s’accomplir par la promotion du refus auprès des proches, ami-e-s et les voisin-e-s et la pratique du refus. Cela peut se traduire par un refus de consentir à une cueillette de données d’un logiciel, même si un expert vous fait miroiter des conséquences positives sur votre santé ou situation. Ensuite, on peut saboter l’IA en faisant du sabotage plus direct. Comme professionnel, on peut détourner l’objectif des outils d’aide à la décision. On peut entrer des données fictives, incomplètes, contradictoires, absurdes ou contre-productifs, afin de neutraliser les résultats, minant ainsi la pertinence à utiliser ces outils. Comme programmeur-euse-s, il y a le sabotage des programmes et des banques de données (en les effaçant).
Une autre stratégie est d’essayer de saboter la formation de la main-d’œuvre opérationnelle, de nuire au recrutement, d’exposer aux jeunes curieux les enjeux problématiques des technologies numériques, de leur mettre en pleine face ce qu’ils/elles seront appelé-e-s à faire comme futurs technicien-ne-s et programmeurs.
Les entrepreneurs en IA ont dans leur mire l’ancien pôle industriel entre Parc-Extenstion et la Petite-Patrie, ce qu’ils appellent le Mile-Ex. Ils profitent aussi de l’expansion du campus de l’UdM dans la partie Sud de Parc-Extension. La présence d’Ubisoft, situé un peu plus au sud, a probablement contribué à cette concentration de start-ups dans ce secteur. Plusieurs start-ups sont aussi situés près du Canal Lachine. Ces entreprises s’approprient des ateliers locatifs, faisant grimper les prix des loyers des ateliers, mais aussi ceux des logements tout autour par l’afflux de travailleurs spécialisés. Ce mouvement d’appropriation du territoire par les entrepreneurs en IA contribue à achever la gentrification des quartiers visés. La lutte contre Google-Campus à Berlin ou contre le pôle technologique (les nanotechs) à Grenoble peuvent servir d’inspiration.
D’autres moyens sont possibles pour freiner le développement de l’IA, mais je vais laisser votre imaginaire vous inspirer.
Conclusion
En résumé, les technologies numériques de l’IA cherchent à remplacer notre jugement, que ce soit dans notre milieu de travail ou dans la vie quotidienne. Dans les milieux de travail, les patrons ont toujours souhaité que nous fonctionnions comme des machines, i.e. rapide et efficace, mais contrairement aux machines, nous avons la capacité de prendre le temps de comprendre et d’évaluer une situation, de réfléchir et de décider consciemment et librement du cours de nos actions. Prendre le temps d’y penser, c’est l’ennemi de tout gestionnaire. C’est ce qui est quantifiable qui est important à leurs yeux. Avec l’IA, plus besoin de réfléchir, on exécutera ce que recommandent les protocoles, les procédures et les algorithmes, au grand plaisir des gestionnaires.
Dans nos vies courantes, la présence de ces technologies à nos côtés influenceront qui nous sommes et ce que nous faisons. Les énoncés des assistants numériques véhiculent des représentations normées avec lesquelles on cherchera à conformer nos actions. L’IA agit donc comme une force normative. En plus, ces technologies favorise l’atomisation des individus et l’uniformisation des cultures, car elles nous empêchent d’aller à la rencontre des autres (par des interactions directes) et d’être en contact avec la diversité des manières de voir le monde. L’usage des APN nous reflète constamment cette croyance d’être placé au centre du monde.
Les technologies numériques « évacuent l’ambiguïté propre à toute situation, aux relations humaines et au langage » (Sadin, 218 : 104). L’IA réduit la réalité à une donnée, elle la simplifie, entraînant également la réduction des possibilités d’actions. On ne voit plus les différentes options. Lorsque l’IA se prononce sur une situation, elle nous prescrit une solution simple déguisée en vérité objective, mais dans les faits, elle reproduit seulement l’ordre social. Sans notre faculté de juger, on devient identiques aux autres, on devient des objets, des produits manipulables et échangeables par ceux qui exercent le pouvoir. Le conformisme mène au totalitarisme.
Au lieu d’apprendre à composer avec l’incertitude de la vie et de trouver des stratégies pour passer à travers, l’IA promet de nous procurer des certitudes. C’est ainsi que l’IA profite de notre peur irrationnelle de l’incertitude pour s’étendre sur nos vies. Elle prétend aussi nous aider dans notre recherche de la perfection de soi. L’incertitude provoque le doute, et le doute nous amène à nous questionner et à nous repositionner. Quel est le mal là-dedans? La perfection ne peut être achevée, vous pouvez être sûr qu’une chose dans la vie, c’est que vos allez perdre si vous essayez de l’atteindre.
Que nous reste-t-il? Nous avons toujours le pouvoir de critiquer l’IA, d’agir contre, de s’opposer partout où elle se manifeste. Nous pouvons partager avec les autres la réalité du terrain, nos expériences vécues et nos récits. Nous pouvons refuser de collaborer avec notre propre subordination et saboter la cueillette de données. Nous pouvons défendre sans cesse la pluralité des possibilités d’actions dans nos métiers. Dans la vie quotidienne, nous pouvons tout simplement accepter l’incertitude de la vie, lâcher prise, et respecter la vie que mène les autres. Nous vivrons des moments tristes et joyeux, mais au moins on ressentira quelque chose.
On assiste alors à l’avènement d’une culture homogène mondial, où la vie personnelle et les comportements des urbains à travers le monde, dictés par l’industrie numérique, se ressemblent de plus en plus. L’IA réduit et séquence le réel à des chiffres, et le réinterprète par des algorithmes. Ainsi, l’IA arrive à plier le réel à des catégories construites. Elle transforme la réalité selon ce qui nous convient le plus, ce qui nous fait bien paraître face aux autres. Tout ça c’est bien beau, mais le réel ne disparaît jamais. Lorsque nous ne serons plus capable d’éviter de faire face au mensonge de nos vies, on se désorganisera et deviendra dysfonctionnel. La lutte contre les IA est une lutte pour la défense du réel, avec ces contradictions, ces déceptions, ces surprises et ces joies.
Je vous invite à nuire ou bloquer ces changements technologiques et à saboter la production, afin de rendre inopérant et coûteux les IA, mais aussi pour garder vos possibilités d’actions toujours plurielles et ouvertes. On ne peut pas espérer de l’aide de l’État, car le rôle premier de l’État est de protéger la propriété privée et le libre marché. Ce sont les politiques publiques qui ont soutenu la mainmise de l’esprit technique sur les interactions sociales. Ne jamais céder votre autonomie de jugement, vous êtes les seuls à décider de l’action que vous allez prendre. Célébrons les imperfections de la vie au lieu de chercher à être parfait, défendons nos expériences au lieu de détruire nos passés. Le changement technique a été rapide, mais sa destruction peut l’être tout aussi, ce sont les liens entre les personnes qui ont été détruit par l’IA qui seront lents à reconstruire…
Documents consultés :
Le Devoir, Série Intelligence artificielle, 2018-2019 :
https://www.ledevoir.com/cahiers-speciaux/intelligence-artificielle-ia
Feenberg, Andrew, Pour une théorie critique de la technique, 2014, Lux, 464p.
Note : Acritique et très mal écrit (ou mal traduit).
Jarrige, François, Face au monstre mécanique; Une histoire des résistances à la technique, 2009, Imho, 172p.
Pièces et main d’œuvre, Aujourd’hui le nanomonde; Nanotechnologies un projet de société totalitaire, 2008, L’échappée, 431p.
Sadin, Éric, L’intelligence artificielle ou l’enjeu du siècle; Anatomie d’un antihumanisme radical, 2018, L’échappée, 298p.
Sale, Kirkpatrick, La révolte luddite; Briseurs de machines à l’ère de l’industrialisation, 2006, L’échappée, 341p.