Technologie - 29 janvier 2021
Alan Turing, largement considéré comme le père de l'informatique moderne, a dit un jour : "Un ordinateur mériterait d'être appelé intelligent s'il pouvait tromper un autre être humain en lui faisant croire qu'il est humain". Il a évoqué la capacité de la machine à imiter un humain, à avoir un dialogue intelligible et précis.
Soixante-dix ans plus tard, nous disposons désormais d'une intelligence artificielle (IA) avancée. L'IA est la tentative continue de l'humanité de rendre la machine plus intelligente et intuitive. Aujourd'hui, Amnesty International travaille dans les coulisses pour nous aider dans nos activités au jour le jour. Il alimente les véhicules autonomes et de stationnement, les assistants numériques sur nos smartphones et d'autres applications que nous utilisons tous les jours, telles que les courriels et les réseaux sociaux. AI aide également les chercheurs et les autorités dans la lutte contre Covid-19. Un exemple de ceci peut être vu à la fin de décembre 2019 lorsque BlueDot, une plate - forme AI, a signalé une forte augmentation des cas de pneumonie "inhabituelle" autour de la région de Wuhan en Chine. Alertés, les autorités d'enquêter sur la question et prendre des mesures correctives. Aujourd'hui, l'IA aide les chercheurs dans les tests COVID-19 et le développement de vaccins.
Les applications d'IA renforcent les systèmes autonomes qui perçoivent, apprennent, puis décident par eux-mêmes. Ces systèmes utilisent des technologies telles que l'apprentissage automatique et le traitement du langage naturel (NLP) pour travailler sur de grands ensembles de données, puis nous fournir une sortie. Cependant, il existe un problème en ce que les systèmes ne nous disent pas le raisonnement derrière les décisions qu'ils prennent. Ils nous donnent le résultat mais ne nous disent pas pourquoi ils nous ont donné ce résultat.
Prenons l'exemple d'un médecin qui utilise un système d'IA. Le système lui donne la recommandation d'effectuer une tâche particulière, mais le médecin ne sera pas à l'aise d'utiliser la recommandation sans en connaître le raisonnement.
Il est un grand écart et qui doit être rempli les systèmes d'IA ne seront jamais en mesure de confiance garner avec des personnes si elles ne parviennent pas à révéler leur raisonnement. Même les concepteurs IA ne peuvent pas expliquer pourquoi leur système est venu à une décision spécifique. Cet article présente un scénario "boîte noire" où personne ne sait ce qui est dans cette boîte ou comment il fonctionne. Cette "boîte noire" a le potentiel de limiter la portée et la portée de l'IA elle-même. Alan Reformulation tournage, machines ne sera jamais intelligente si elles ne peuvent pas faire une conversation transparente avec les humains. Aujourd'hui, il y a l'efficacité, mais pas beaucoup de communication, et cela peut être un deal-breaker pour beaucoup.
Entrez dans l'IA explicable !
En termes simples, l'IA explicable (XAI) est une application d'intelligence artificielle qui fournit un raisonnement compréhensible sur la façon dont elle est arrivée à une conclusion donnée.
L'IA explicable ajoute de la transparence à la "boîte noire" et lui permet d'être examinée et comprise par les praticiens humains. C'est un pas de géant pour rendre l'IA plus éthique.
Voyons cela en détail.
Un workflow de Machine Learning habituel ressemble à ceci :
Premièrement, nous utilisons des données pour entraîner un modèle avec un processus d'apprentissage spécifique.
Le processus d'apprentissage conduit alors à une fonction apprise.
Les entrées sont introduites dans la fonction Appris.
La Machine prédit la sortie. L'utilisateur voit cette sortie.
Une fois la fonction apprise, de nouvelles entrées peuvent être introduites dans le modèle et la machine renverra la prédiction souhaitée.
Prenons un exemple. Sam veut acheter une voiture d'occasion et il est intéressé de connaître son prix. Nous prenons le modèle et le formons avec un processus d'apprentissage. Ensuite, nous alimentons les entrées (qui sont les détails de voiture d'occasion), et l'algorithme d'apprentissage machine retourne une prédiction du prix des voitures d'entrée. Sam peut regarder le prix et décider si ce serait un bon achat.
La chose essentielle à noter ici est qu'il y a une prédiction mais aucune justification. Cela peut dérouter Sam car il doit faire une confiance aveugle à la machine pour prendre la bonne décision.
D'autre part, l'IA explicable suit le cadre suivant :
Comme vous pouvez le voir, il y a un nouveau processus d'apprentissage ici. Ce processus d'apprentissage nous donne non seulement la prédiction, mais explique aussi pourquoi il a fait une telle prédiction. Dans la nouvelle sortie, l'utilisateur obtient des informations supplémentaires sur la raison pour laquelle la prévision a été faite. Le modèle de l'exemple ci-dessus ressemblera à ceci :
A layer of ability to explain is added in the ML design to create an Explainable AI model.
La couche supplémentaire est cruciale car :
L'explicabilité contribue à garantir l'impartialité dans la prise de décision. Il permet de détecter et de corriger tout biais dans les ensembles de données.
L'explicabilité met en évidence les facteurs potentiels qui pourraient modifier la prédiction.
Dans le passage ci-dessous, nous examinerons quelques entreprises pionnières de la technologie XAI et la présentant au monde.
IBM: IBM a répondu à une enquête interne complète et a découvert que plus de 60% de ses dirigeants n'étaient pas à l'aise avec l'approche traditionnelle de la "boîte noire" de l'IA. IBM a développé un outil d'IA avancé basé sur le nuage et utilise la technologie XAI pour fournir le raisonnement derrière les recommandations de l'IA.
Google: Google a créé une plate-forme AI compatible Xai qui fournit des explications sur plusieurs des fonctionnalités de Google telles que la reconnaissance d'image, l'échantillonnage de code.
Darwin AI: Fondée en 2017, DarwinAI est active dans un processus connu sous le nom de "Synthèse générative". Dans cette méthode, DarwinAI utilise l'IA pour comprendre le fonctionnement d'un réseau de neurones d'apprentissage en profondeur. Il offre une boîte à outils d’explicabilité, une fonctionnalité simple à utiliser qui effectue des diagnostics de réseau, un débogage de réseau, etc.
Flowcast: Flowcast: La société utilise sa technologie d'IA propriétaire pour créer des modèles d'évaluation de crédit explicables. Cela a le potentiel de transformer complètement la réglementation du crédit et d'aider les institutions financières à se conformer à la réglementation.
Imandra: Imandra travaille à rendre les algorithmes justes, explicables et sûrs. Elle propose sa solution "Reasoning as a service" qui apporte la technologie XAI dans des domaines clés. Cela a commencé dans le secteur financier, mais s'est lentement étendu à d'autres industries comme les transports, la robotique, etc.
Kyndi: Kyndi propose une plateforme dédiée NLP (natural language processing) et vise à créer des systèmes d'IA auditables.
Factmata: Factmata a été l'une des premières entreprises à s'attaquer aux problèmes des fausses informations en ligne. Il utilise des techniques d'IA pour filtrer les nouvelles crédibles des fausses et utilise des techniques XAI pour justifier la ségrégation.
L'innovation doit aller de pair avec la confiance ; aucune entreprise ou technologie ne peut réussir sans confiance. Selon un rapport de PWC, l'IA sera responsable de gains de PIB pouvant atteindre 15 000 milliards de dollars d'ici 2030. L'entreprise a également interrogé en 2017 où plus de 70% des dirigeants pensaient que l'IA affecterait tous les aspects des activités d'une organisation. Alors que l'IA devient de plus en plus courante, il est important qu'elle devienne éthique et responsable et XAI est un grand pas en avant à cet égard.
Related stories
Restez informé avec notre
bulletin