L’intelligence artificielle : des origines aux prédictions 

artificielle

LE DÉCRYPTAGE DE L’ACTU

Chaque semaine, on essaye de comprendre pour vous un sujet qui fait l’actu, mais qui peut paraître un peu ardu…

L’intelligence artificielle : des origines aux prédictions

L’Intelligence artificielle est généralement vue sous deux angles : comme le futur de l’humanité, ou bien comme son destructeur, à la manière des films de science-fiction où les robots détruisent la civilisation. Parfois crainte, souvent fascinante, mais aussi mal connue, on retrace ensemble l’histoire de l’intelligence artificielle !

L’informatique relève de l’action d’une machine traitant de manière automatique une information, d’où son nom. On se base alors sur des machines capables de traiter une multitude de données grâce à des algorithmes. Ces derniers sont des listes d’instructions à suivre dans un certain ordre pour effectuer une tâche de manière automatique. L’intelligence artificielle utilise alors cette fonction pour traiter des milliards de données. Elle tente grâce à cela de reproduire les fonctions cognitives des humains qui sont le raisonnement, le langage, la vision et même la créativité.

Une histoire forte en rebondissements

Il existe trois grandes périodes dans le développement de l’Intelligence Artificielle (IA) : 1940-1960, 1980-1990 et de 2000 à aujourd’hui. Dès la fin des années 1940, avec l’influence de la seconde guerre mondiale, l’informatique se développe rapidement. Le premier grand enjeu qui amène à la création de l’intelligence artificielle se trouve dans la traduction automatique. En pleine guerre froide, traduire rapidement des textes devient un besoin fondamental.

À l’époque, il n’existe pas d’informaticien en tant que tel, ce sont majoritairement des scientifiques comme des mathématiciens qui développent les projets et les théories. C’est en 1950 que le mathématicien britannique Alan Turing (qui donnera plus tard son nom à un grand prix d’informatique) écrit un article fondateur pour l’IA, mais sans la nommer directement. Il entame son texte avec cette question : « Les machines peuvent-elles penser ?»

artificielle
Statue d’Alan Turing à Bletchley Park par Stephen Kettle – Jon Callas

La naissance du terme « Intelligence artificielle »

En 1951, le mathématicien américain Marvin Minsky invente le SNARC, le premier simulateur de réseau neuronal, capable de simuler le comportement d’un rat piégé dans un labyrinthe. Mais la paternité du terme d’intelligence artificielle est attribuée en 1956 à un de ses collègues, John McCarthy. C’est lors d’une convention à Darmouth avec Minsky et quatre de ses collègues, qu’il évoque ce terme pour la première fois. Trois ans plus tard, les deux mathématiciens créent ensemble le laboratoire d’Intelligence Artificielle au MIT. Cette attention envers ce nouveau modèle informatique va également séduire les scientifiques européens, majoritairement Français et Anglais. Dans l’Hexagone par exemple, un centre d’étude de la traduction automatique est fondé en 1959 en étant cofinancé par le CNRS, l’armée et l’université de Grenoble.

Une baisse d’intérêt

Mais dix ans plus tard, l’IA connait son premier coup dur, car les grandes promesses faites dans les années 1950 comme celle d’une traduction automatique révolutionnaire ne sont toujours pas réalisées. Tout comme celle de l’économiste et sociologue Herbert Simon qui prévoyait qu’en dix ans de travail, l’IA serait capable de battre un homme aux échecs (cette prouesse n’a été réalisée qu’en 1997). Puis dans les années 1970, les fonds habituellement alloués à la recherche par l’armée sont réquisitionnés ailleurs et laissent les laboratoires sans le sou. 

Il faut donc attendre les années 1980 pour que l’intérêt pour l’IA et le projet de remplacer certains métiers par des machines reviennent sur le devant de la scène. Cette décennie qui précède un autre “hiver de l’IA”, met en avant les “systèmes d’experts”. Ces logiciels, vite adoptés par les entreprises, sont capables de reproduire l’avis d’un expert dans un domaine prédéfini. Utilisés pour répondre à des questions précises, ils imitent un raisonnement humain à partir de faits et de règles connues, aidant ainsi à la prise de décision. On utilise les systèmes d’experts pour des activités commerciales ou encore des diagnostics médicaux. 

artificielle
Quand on demande à l’IA Dall-e de représenter une intelligence artificielle dans le style de l’artiste Frida Kahlo

Des millions de données

Nous sommes actuellement dans la troisième grande vague de développement grâce à l’arrivée de nouveaux algorithmes plus performants, de processeurs graphiques plus recherchés et de bases de données plus conséquentes. Grâce à cela, il existe désormais deux grands types d’intelligence artificielle: les logiciels et les incarnés.  Les logiciels comprennent les assistants virtuels, les logiciels d’analyse d’images, les moteurs de recherche ou encore les systèmes de reconnaissance faciale et vocale. En ce qui concerne les «incarnés», cela englobe les robots, les voitures autonomes et les drones. 

Le Machine learning 

L’IA a depuis délaissé les “systèmes d’experts”, pour fonctionner par Machine learning, c’est-à-dire en apprenant par elle-même au lieu de reproduire des décisions humaines. Par un ensemble de techniques, la machine peut alors, par apprentissage automatique, d’apprendre par elle-même sans avoir sans cesse besoin de l’homme. Parmi elles, le Deep learning, qui mime le fonctionnement d’apprentissage du cerveau humain. On va alors programmer la machine pour qu’à partir d’exemples, elle puisse généraliser et traiter ensuite des données inconnues. Par exemple, pour qu’une IA reconnaisse un chat, on va lui montrer des milliers de photographies de cet animal afin qu’elle puisse le faire  de manière autonome par la suite.

Au début, des erreurs peuvent survenir, mais au fil du temps l’IA se corrige. Nous sommes ainsi sans cesse entourés d’IA : quand nous effectuons une recherche sur  Google, une IA classe et priorise les informations à mettre en avant selon notre profil. C’est aussi le cas sur les réseaux sociaux, quand le contenu proposé est adapté à chaque utilisateur.

Comment collecter des données ?

Pour que l’IA parvienne à faire des généralisations et donner des réponses de plus en plus précises, elle a besoin de données variées, correctement qualifiées, et cela, en grande quantité.

Parfois, c’est nous qui, directement, relevons pour l’IA les caractéristiques d’un élément. Avec les captchas par exemple, présents en entrée de site, nous cliquons sur plusieurs images semblables. On permet ainsi, en étant des  «travailleurs du clic», à l’IA de reconnaitre une même caractéristique. En recherchant sur un moteur de recherche des informations, on permet également d’approfondir l’algorithme.

Les données peuvent être aussi collectées de manière automatique via des caméras de surveillance, des microphones ou encore des objets connectés. Ce besoin de données a permis l’émergence des GAFAM (Google, Amazon, Facebook Apple, Microsoft) qui utilisent et produisent des milliards de données pour favoriser leurs algorithmes. 

Les dérives du deep learning

Avec cette manière de procéder, des biais et des stéréotypes présents chez les humains peuvent se transmettre aux IA. Par exemple, il a été observé que quand une IA était utilisée pour recruter des personnes, les profils d’homme blanc étaient majoritairement mis en avant quand ceux des femmes et particulièrement celles de couleurs étaient reléguées au second plan.

Ces biais ont été mis en avant par l’IA créée en 2014 par Amazon pour son processus de recrutement. Vous pouvez même voir de chez vous les biais de certains algorithmes. Il suffit de taper «nurse» (infirmier ou infirmière en anglais) dans un générateur d’images ou «CEO» pour voir que les stéréotypes ont la vie dure. 

Une inquiétude grandissante concernant l’intelligence artificielle

Ces derniers temps, de nouvelles IA voient le jour et ne cessent de faire l’actualité. C’est le cas des IA permettant de générer des images à partir de simples mots. C’est le cas de Dall-e 2 (générateur d’image) qui connait un grand succès depuis son lancement. Un autre IA, Midjourney,  a permis à l’artiste Jason Allen de gagner le premier prix d’un concours d’art à la foire du Colorado. C’est la première fois qu’une image créée à 100% par une IA gagne une telle compétition. Cela pose alors des questions sur l’avenir de l’art, notamment sur le droit d’auteur et la propriété intellectuelle.

Le site de Chatgpt

L’arrivée de Chatgpt

En effet, des IA comme celles-ci permettent aux utilisateurs de créer leurs images en se basant sur des milliers d’œuvres, dont certaines sont protégées initialement par des droits d’auteur. Des artistes ont alors lancé un mouvement de contestation contre cette nouvelle forme d’art. D’autres IA, comme le célèbre Chatgpt, posent quant à elles des questions sur les possibles dérives d’utilisation. Ce robot conversationnel est capable de discuter de manière directe et de produire des textes comme de la poésie, mais aussi des dissertations ou des articles en se basant sur des milliards de publications. De nombreux questionnements ont été soulevés sur le bien fondé de ce type d’IA et sur l’apparente neutralité dont elle fait preuve. 

Quand l’IA rencontre la médecine

Mais l’utilisation de l’IA semble également porteuse de promesses, notamment dans la médecine où elle permet d’améliorer la prise en charge. En analysant des milliers d’images de tumeurs, l’IA sera capable, dans un futur proche, de mieux les repérer chez les humains et ainsi d’accélérer le diagnostic. Cette manière de procéder est déjà utilisée au Royaume-Uni avec les accidents cardio-vasculaires (AVC). Le nombre de patients qui ne présentent pas ou peu de symptômes après avoir eu un AVC a été multiplié par trois grâce à l’IA. Elle a permis de réduire d’environ une heure la prise en charge en diagnostiquant plus rapidement les patients et en proposant un traitement adapté. Dans un tout autre domaine, l’IA peut également permettre de lutter contre le harcèlement en ligne en reconnaissant des termes injurieux sur les réseaux sociaux. 

La course à l’IA  

La Chine a annoncé investir près de 150 milliards d’euros pour le développement de l’IA d’ici à 2030 pour détrôner les champions de la catégorie : les États-Unis. Ces dernières années, une réelle ruée vers l’IA a démarré et la France ne veut pas rester à la traine. En 2018, Emmanuel Macron avait annoncé un plan d’investissement de 1,5 milliard d’euros et en 2020, 2,2 milliards d’euros sont venus le compléter. Cette somme est investie dans le but que le pays soit «un champion de l’intelligence artificielle» notamment en développant la formation.

Quel cadre législatif adopter ?

Dans cette course effrénée, le besoin d’établir un cadre législatif commun entre les pays et les géants du numérique se fait ressentir pour éviter toute dérive. L’Union européenne a pour cela créé son Comité sur l’IA (CAI) qui aura sa troisième réunion en janvier 2023. Il a pour but d’encourager les innovations tout en faisant office de garde-fou.

Précédemment, le Conseil de l’Europe avait adopté comme position commune celle de veiller à ce que les systèmes d’IA mis sur le marché européen respectent la législation en vigueur et respectent les droits fondamentaux. Il est par exemple interdit de se servir de l’IA à des fins de notation sociale, de restreindre la liberté d’expression et de porter atteinte à la vie privée par les technologies de surveillance de masse. 

S’organiser mondialement

En ce qui concerne la législation mondiale, la France et le Canada sont à l’origine du Partenariat Mondial sur l’IA (PMIA) qui désire guider le développement et l’utilisation responsable de cette technologie. Lancé en 2020, ce partenariat rassemble pour le moment 19 pays. Les Intelligences artificielles ont ainsi été pensées dès les années 1950, mais commencent tout juste à faire l’objet d’une législation construite. Ce qui est sûr, c’est que les questionnements quant à son utilisation ne vont pas cesser de faire l’actualité de sitôt. 

Sources :

  • Parlement Européen : Intelligence artificielle : définition et utilisation  
  • Conseil de l’Europe : Histoire de l’Intelligence artificielle
  • France culture : Aux origines de l’intelligence artificielle  
  • Gouvernement – Stratégie nationale pour l’intelligence artificielle : Éthique de l’intelligence artificielle
 

💪  Pour aller plus loin...  💪

Vous avez aimé ? Soutenez notre activité !
 

Vous avez remarqué ?

Ce site est gratuit. En effet, nous pensons que tout le monde devrait pouvoir se forger une opinion gratuitement pour devenir un citoyen éclairé et indépendant.

Si cette mission vous touche, vous pouvez nous soutenir en vous abonnant, sans engagement et dès 1€ par mois.