Depuis la sortie de ChatGPT, on parle beaucoup de la distinction entre IA forte et IA faible, deux types d’IA très différentes. La première était jusqu’alors une utopie lointaine qui arrive finalement bien plus rapidement que les prévisions des experts. La seconde est à l’œuvre depuis de nombreuses années.
Détaillons cette distinction.
Définitions : IA forte vs IA faible
On distingue deux types d’IA en se basant sur leurs fonctions :
L’IA forte dont les capacités sont semblables à celles des humains dans tous les domaines.
L’IA faible ou restreinte est une IA conçue pour une tâche spécifique.
Comment distinguer clairement une IA forte d’une IA faible ? Comment savoir si on a affaire à une IA forte ou une IA faible ?
Quelle distinction entre IA forte et IA restreinte
La question fondamentale est donc de savoir si ce qui les distingue est une différence de nature ou de degré. Si certaines IA étaient intrinsèquement fortes, cela signifierait que la différence est liée à la nature de l’algorithme et au principe de fonctionnement.
Une différence de nature
Il est effectivement pertinent d’y voir une différence de nature : certaines IA utilisent des algorithmes de Machine Learning simples pour distinguer ou classifier des données. Ces IA utilisent des algorithmes comme la régression, les arbres de décision, le random forest, etc. Ce sont des algorithmes simples capables de regrouper des données entre elles en fonction de leur ressemblance, par exemple.
Cependant, ces algorithmes sont par nature limités. Ils prennent en entrée des données structurées (dans des formats précis) et fourniront toujours avec un format de réponse similaire. Dans aucun cas elles ne peuvent avoir un autre comportement que celui explicitement souhaité par son créateur.
À ce titre, on peut effectivement faire une distinction sur la nature de l’algorithme entre chacun des deux types d’IA. Les IA reposant sur ces algorithmes simples sont faibles… Mais ce serait trop simple si on s’arrêtait ici.
Deep Learning
Certains réseaux de neurones permettent aussi bien de créer des IA à usage général (ChatGPT par exemple) que des IA restreintes (traducteur, transcription, etc). Pourtant, la distinction est toujours liée à une différence de nature. Ce n’est pas la nature de l’algorithme qui diffère, c’est le type d’entraînement.
Les algorithmes de deep Learning basés sur des réseaux de neurones acquièrent des comportements en suivant un entraînement. L’IA adopte petit à petit les comportements souhaités en le récompensant ou non pendant l’entraînement.
Mais si tout fonctionne de manière identique, comment peut-on avoir d’un côté des IA à usage général et des IA à usage restreint ?
Tout dépend de l’entraînement :
L’apprentissage supervisé : on donne au modèle la donnée et on vérifie si la réponse est celle attendue. Une seule bonne réponse est attendue. Pour entraîner un outil de transcription (voix vers texte), le modèle va être récompensé si pour un segment audio donné le texte déduit est le bon.
L’apprentissage auto-supervisé : on donne au modèle des données non structurées et séquentielles. Par exemple, pour une phrase on peut retirer la moitié de la phrase et demander au modèle de prédire le mot suivant, puis recommencer jusqu’à ce qu’il termine la phrase complète. On récompensera le modèle à chaque fois qu’il arrive à trouver le mot qui complète correctement. Cette étape permet de donner au modèle de la connaissance (et de la compréhension) générale. Ensuite, on affine souvent le modèle pendant une phase de fine-tuning qui lui permet typiquement d’apprendre à mieux répondre à des questions. On affine le comportement général en lui donnant beaucoup d’exemple. Enfin, on ajoute depuis quelques années une phase d’apprentissage par renforcement (RLHF) : l’IA fournit plusieurs réponses et on récompense celle qui convient le mieux. On n’attend donc pas de réponse précise.
Ici, seul l’apprentissage supervisé spécialise l’IA pour aboutir à une IA faible. Ainsi, il y a une différence de nature. Mais, quid des autres méthodes d’apprentissage ?
Une différence de degré
Même si on entraîne une IA suivant un apprentissage auto-supervisé (la méthode utilisée pour créer ChatGPT) on n’atteindra pas forcément une IA forte.
En effet, une IA forte est définie comme ayant des capacités équivalentes à celles de l’homme dans tous les domaines, y compris d’un point de vue émotionnel, relationnel, etc.
Or, en réalité, aujourd’hui on ne peut pas dire qu’on ait atteint l’IA forte. En effet, même les capacités impressionnantes des meilleures IA n’arrivent pas à nous dépasser sur certaines tâches évidentes pour nous. Les IA ont encore des capacités bien inférieures aux nôtres d’un point de vue général, comme le montre par exemple le récent benchmark ARC-AGI-3 sur la capacité des LLM à comprendre l’implicite.
Il y a donc ici une difficulté de vocabulaire, car on a bien affaire à une IA à usage général (on peut difficilement la qualifier de restreinte), mais qui n’est toutefois pas IA forte. Ici, la distinction se base sur une différence de degré. Une IA s’approche des capacités fortes petit à petit. Pour cette raison, il est très probable qu’on ne se rende pas compte du moment précis où elle pourrait nous dépasser.
Bonus : simuler une faculté est-ce équivalent à la faculté réelle ?
Dépassons très légèrement le cadre de l’article pour interroger : simuler une faculté est-ce équivalent à la faculté réelle ?
La question peut sembler délicate, elle est pourtant assez simple : si je demande à un robot de m’imiter pour éplucher une pomme puis pour la couper en morceaux… Le robot aura de fait réalisé l’opération d’éplucher et de couper la pomme. De même, si je viens annoncer à un patient les résultats d’une analyse et qu’un robot agit exactement de la même manière (les expressions faciales en robotique avancent très vite), le patient observera de fait les mêmes expressions et pourrait se sentir touché de la même manière (moyennant de dépasser la vallée dérangeante).
On peut donc répondre par l’affirmative : simuler et imiter une faculté est équivalent à avoir la faculté réelle.
Mais ne soyons pas si simple : simuler une faculté n’est pas égale à avoir la faculté réelle ! Équivalent n’est pas synonyme de égale !
L’homme a une dignité bien supérieure. Et une tâche humaine a bien plus de dignité que si c’était un robot qui la réalisait. De ce fait, si un robot peut avoir une empathie équivalente en la simulant, seul l’homme peut réellement l’avoir. Il est le seul à pouvoir exprimer avec vérité de l’empathie. Exprimer en vérité requiert une conscience morale que seul l’homme a. De ce fait, il n’y a aucune égalité entre le robot et l’homme, et seul l’homme donne une vraie valeur à l’empathie exprimée.
Ainsi, on peut dire que la faculté réelle est plus importante que la faculté simulée, non d’un point de vue fonctionnel, mais d’un point de vue spirituel. Car l’homme en exerçant les vertus grandit lui-même. Le robot ne fait que réaliser un objectif concret, mais ne retire rien pour lui-même, et n’est en soi d’aucune aide pour faire grandir les autres.