/  01 août 2019

L’intelligence artificielle n’est pas près de remplacer l’humain

Les définitions de l’intelligence artificielle (IA) sont innombrables, car elle revêt plusieurs sens et englobe des réalités différentes au fur et à mesure de l’accélération technologique. Selon sa plus simple acception, elle réside dans la recherche de moyens susceptibles de doter les systèmes informatiques de capacités intellectuelles comparables à celles des êtres humains.

 

Retour aux sources

Proclamée discipline scientifique à la suite du Dartmouth Summer Research Project on Artificial Intelligence (ou conférence de Dartmouth), en 1956, l’IA fait l’objet d’une multitude de travaux de recherche et d’expérimentation durant les décennies subséquentes. Ils ont presque tous une finalité commune : rendre les machines intelligentes en leur permettant d’imiter les différentes fonctions cognitives de l’être humain (perception, mémoire, raisonnement, apprentissage) ou de reproduire des compétences (organisation, description, traitement de l’information). Autrement dit, agir et réagir de la même façon que lui.

L’histoire de l’IA n’est pas un long fleuve tranquille : elle est marquée par des périodes d’hyperactivité et d’autres de dormance qui fluctuent selon les découvertes et les progrès technologiques, les disponibilités budgétaires ou les dispositions des acteurs financiers et politiques.

À la fin des années 1960 s’amorce une troisième révolution industrielle (informatique). C’est celle de l’électronique, du microprocesseur et des premières technologies de l’information. Au fil des décennies qui suivent, l’augmentation exponentielle de la puissance calculatoire et de la capacité de stockage des ordinateurs, les nombreuses ruptures technologiques ainsi que la naissance du Web concourent à une quatrième révolution (numérique) dont le rythme infernal bouscule les lignes de démarcation entre les disciplines et les secteurs.

Cette révolution provoque une métamorphose de systèmes entiers (production, gestion, gouvernance). Ses vagues technologiques (téléphone intelligent, Web 2.0, 3.0 et 4.0, infonuagique, Internet des objets, etc.) et leurs corollaires, l’hyperconnectivité et l’émergence incessante de fonctions et d’applications (messagerie texto [SMS], signaux GPS, transactions en ligne, etc.), s’avèrent autant de catalyseurs du développement de l’IA.

 

Le rythme s’accélère

La multiplication des données numériques, c’est-à-dire les actions réelles ou virtuelles d’utilisateurs sur Internet, est à ce point phénoménale qu’elles ne se mesurent plus en mégaoctets (106 octets), en gigaoctets (109), en téraoctets (1012), en pétaoctets (1015) ni même en exaoctets (1018), mais en zettaoctets (1021 octets).

Chaque seconde, 29 000 gigaoctets (Go) d’informations sont produits dans le monde, soit 912,5 exaoctets (Eo) par an. Nous générons maintenant autant d’informations en deux jours que l’humanité depuis son origine jusqu’au début du XXIe siècle. Ce n’est rien, car le volume de ces données, qui double tous les 18 mois, explosera d’ici 2020, alors que l’humanité devrait en produire 40 zettaoctets (40 Zo) par an. Des spécialistes estiment que la taille de l’univers numérique devrait doubler tous les deux ans.

Le rapport publié en 2015 par le Club informatique des grandes entreprises françaises (CIGREF) signalait que l’humanité produisait alors toutes les minutes 350 000 tweets, 15 millions de SMS et 200 millions de courriels, et que 1,01 milliard d’objets étaient connectés sur la planète, un nombre insignifiant en regard de celui de près de 100 milliards estimés en 2020. De plus, 90 % des données existantes en 2016 avaient été produites au cours des deux années précédentes.

Structurées ou non (c’est-à-dire représentées ou stockées sans format prédéfini), les données champignonnent. Les non structurées (celles émanant de textes, photos, vidéos, médias sociaux, téléphones intelligents, relevés de transactions électroniques, systèmes de localisation GPS, signaux de technologies médicales, etc.) enregistrent une croissance annuelle de 80 %.

En plus de rendre obsolètes les outils classiques de recherche et d’extraction de données, l’explosion de ces quantités produites en temps réel et en continu oblitère ceux, traditionnels, de gestion de bases de données. La valeur inestimable de ces informations stockées dans des gisements ou puits (wealths of data) ou dans des entrepôts de données (data warehouses) précipite, au début des années 1990, l’exploration (ou fouille, forage, prospection) de données (data mining). Cette technique de recherche et d’analyse permet, à l’aide d’algorithmes sophistiqués, de déceler des tendances, de faire des corrélations, de détecter des informations stratégiques, de développer un savoir ou d’accroître des connaissances. C’est au cours de cette décennie qu’apparaît le terme de « métadonnées » (metadata), c’est-à-dire des données sur les données.

 

Les données : l’or noir des temps modernes

La disponibilité de quantités astronomiques de données produites par les nouvelles technologies met en évidence l’inutilité de les posséder et de les emmagasiner à défaut de disposer d’un moyen adéquat et performant pour les analyser. L’écosystème technologique des mégadonnées (big data), permettant de les transférer, de les stocker et de les manipuler massivement, se révèle vite indispensable pour l’IA qui a un besoin insatiable de données pour alimenter des algorithmes de plus en plus pointus basés sur les apprentissages profond (deep learning) et automatique (machine learning). Dans ce dernier cas, les ordinateurs apprennent par eux-mêmes en développant des connaissances et des aptitudes nouvelles et en améliorant leur efficacité à partir des résultats obtenus lors d’opérations précédentes.

Les données ne représentent pas qu’une valeur stratégique. Le Boston Consulting Group a déjà évalué à 315 milliards de dollars (315 G$) la valeur marchande annuelle des données personnelles laissées gratuitement par les internautes européens et estime qu’elle devrait atteindre mille milliards de dollars (1 000 G$) l’an prochain.

Les géants du Web que sont les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) ont compris l’importance primordiale du cercle vertueux que constitue la convergence de l’IA (l’arme) et des mégadonnées (les munitions). Ils s’emploient donc à créer de plus en plus de services qui génèrent eux-mêmes de plus en plus de données et gagnent par le fait même en intelligence.

Les secteurs de l’assurance, des banques et des finances emboîtent le pas, conscients des bénéfices tangibles que constituent la création continue de valeur, des processus améliorés ainsi qu’une compétitivité et une agilité accrues. Aussi accélèrent-ils leurs efforts de recherche et développement en technologie financière (fintech) aux fins d’une utilisation optimale des technologies numériques les plus évoluées et les plus contemporaines.

Les développements de l’IA dans le secteur financier mettent l’accent sur l’augmentation de la productivité, la réduction des coûts, la minimisation des risques, la prévention de la fraude et l’expérience client, de même que sur l’analyse comportementale des investisseurs et de mégadonnées dans le but d’améliorer, par exemple, les stratégies de placement.

 

L’IA et la gestion de portefeuille

Il est vrai qu’un algorithme d’IA peut intégrer une quantité titanesque d’informations plus rapidement que l’humain, mais il n’en demeure pas moins que l’IA ne constitue pas un outil prévisionnel des marchés financiers et encore moins de gestion de portefeuille pour les investisseurs ayant un horizon de placement à long terme. Pourquoi ? Parce que les modèles ne résistent pas à des événements de marché extraordinaires et difficilement prévisibles comme les crises financières ou les dévaluations monétaires. Et parce que l’intelligence émotionnelle est proprement humaine. Quant au risque lié au portefeuille, le grand nombre de balises existant encore pour le limiter confirme l’incapacité des algorithmes à cet égard et l’immaturité technologique de l’IA en matière de gestion.

Une bonne diversification et un rééquilibrage efficace demeurent les éléments clés d’un portefeuille performant à long terme. Une bonne connaissance des entreprises et un bon jugement seront toujours préférables aux décisions basées principalement sur des rendements passés.

Un expert de l’IA de renommée internationale, M. Yoshua Bengio, déclarait récemment que le plus intelligent des ordinateurs possède à peine la même intelligence qu’une grenouille ou un chat à qui l’on aurait passé sa vie à apprendre une seule chose. Il rappelait que la recherche ne reproduit que de toutes petites parties de tout ce que le cerveau peut accomplir (La Presse +, 23 juin 2019). L’humain n’est donc pas près de créer une IA égale ou supérieure à la sienne, et l’IA n’est pas près de remplacer l’humain.

Dans le domaine financier, il existe un fossé énorme entre le battage médiatique autour de l’IA et la réalité. Il faut donc éviter le piège de croire que l’IA est plus sophistiquée qu’elle ne l’est vraiment. Les progrès notables de l’IA ne doivent pas faire oublier l’importance d’une approche pragmatique en la matière qui consiste à s’ouvrir aux innovations technologiques en faisant preuve de rationalité, de jugement et de vigilance. C’est encore et toujours le plus sûr.