L'IA possède-t-elle déjà une intelligence de niveau humain ?

 

" Le plus grand danger de l’intelligence artificielle, et de loin, est que les gens concluent trop tôt qu’ils la comprennent" Éliézer Yudkowsky



Gemini Generated Image ebhai6ebhai6ebha 1

Chen EK, Belkin M, Bergen L, Danks D. Does AI already have human-level intelligence? The evidence is clear.

L'IA possède-t-elle déjà une intelligence de niveau humain ? Les preuves sont claires.

Nature. 2026 Feb;650(8100):36-40. doi: 10.1038/d41586-026-00285-6. PMID: 41629664.
https://www.nature.com/articles/d41586-026-00285-6



RAPPEL : le test de TURING


D'après le document « Does AI already have human-level intelligence? The evidence is clear », voici ce qu'est le test de Turing :
 
Origine et définition Proposé par Alan Turing en 1950 dans son article intitulé « Computing Machinery and Intelligence », le test était initialement appelé le « jeu de l'imitation »
Il s'agit d'une expérience conçue pour répondre à une question qui semblait purement hypothétique à l'époque : les machines peuvent-elles manifester le type de compétence cognitive générale et flexible qui caractérise la pensée humaine ?
Le critère de réussite :  Le test consiste concrètement à déterminer si une machine est capable de se faire passer pour un humain auprès de juges humains qui ignorent qu'ils interagissent avec une machine.
Son importance actuelle .  Selon les auteurs :  ce test visait à identifier ce que nous appelons aujourd'hui l'« intelligence générale » (bien que Turing n'ait pas utilisé ce terme), c'est-à-dire une intelligence large et non limitée à des tâches spécifiques comme le calcul.   Le test repose sur l'idée que l'intelligence se déduit du comportement et de la conversation, sans qu'il soit nécessaire d'examiner le fonctionnement interne du "cerveau" de la machine.

downloadEXTRAITS ...
 
"La vision d'une intelligence artificielle de niveau humain, esquissée par Alan Turing dans les années 1950, est désormais une réalité. Un regard lucide, exempt de crainte et d'exagération, nous permettra de nous préparer à l'avenir.
 

En 1950, dans un article intitulé « Computing Machinery and Intelligence » ¹ , Alan Turing proposa son « jeu de l'imitation ». Désormais connu sous le nom de test de Turing, il abordait une question qui semblait purement hypothétique : les machines pourraient-elles faire preuve du type de compétence cognitive flexible et générale caractéristique de la pensée humaine, au point de pouvoir se faire passer pour des humains auprès d'humains non avertis ?

Trois quarts de siècle plus tard, la réponse semble être « oui ».

En mars 2025, le modèle de langage à grande échelle (LLM) GPT-4.5, développé par OpenAI à San Francisco, en Californie, a été jugé humain dans 73 % des cas lors d'un test de Turing, soit plus souvent que de véritables humains.  
De plus, les lecteurs ont même préféré les textes littéraires générés par les LLM à ceux écrits par des experts humains.

Et ce n'est pas tout.  Les titulaires d'un LLM ont obtenu des médailles d'or aux Olympiades internationales de mathématiques, collaboré avec d'éminents mathématiciens pour démontrer des théorèmes⁴ , formulé des hypothèses scientifiques validées expérimentalement⁵ , résolu des problèmes d'examens de doctorat, aidé des programmeurs professionnels à écrire du code, composé de la poésie et bien plus encore – y compris discuter 24 h/24 et 7 j/7 avec des centaines de millions de personnes à travers le monde. En d'autres termes, les titulaires d'un LLM ont démontré à maintes reprises cette vaste et flexible compétence cognitive qui était au cœur des recherches de Turing – ce que nous appelons aujourd'hui « intelligence générale », bien que Turing n'ait pas employé ce terme.

Quel est l'avenir de l'intelligence ? La réponse pourrait se trouver dans l'histoire de son évolution.

 

Pourtant, de nombreux experts hésitent à affirmer que les modèles d'IA actuels font preuve d'intelligence artificielle générale (IAG), et certains doutent même qu'ils y parviennent un jour. Un sondage réalisé en mars 2025 par l'Association pour l'avancement de l'intelligence artificielle à Washington D.C. a révélé que 76 % des chercheurs les plus éminents estimaient qu'il serait « peu probable » ou « très peu probable » que le passage à l'échelle supérieure des approches actuelles d'IA aboutisse à une IAG (voir go.nature.com/4smn16b ).

Comment expliquer ce décalage ? Nous pensons que le problème est en partie conceptuel, car les définitions de l’IA générale sont ambiguës et incohérentes ; en partie émotionnel, car l’IA générale suscite la crainte d’un bouleversement et d’une rupture ; et en partie pratique, car le terme est inextricablement lié à des intérêts commerciaux susceptibles de fausser les évaluations. Précisément parce que l’IA générale domine le discours public, il est pertinent d’aborder ce concept avec plus de recul : comme une question d’intelligence, plutôt que comme une préoccupation urgente concernant un bouleversement social ou une étape sans cesse repoussée dans un contrat commercial.

Pour rédiger ce commentaire, nous avons abordé cette question sous différents angles – philosophie, apprentissage automatique, linguistique et sciences cognitives – et sommes parvenus à un consensus après de longues discussions."

 

Nous expliquons ci-dessous pourquoi, une fois certaines confusions dissipées, et après avoir cherché à établir des comparaisons équitables et à éviter les biais anthropocentriques, la conclusion est sans équivoque : selon des critères raisonnables, y compris ceux de Turing, nous disposons de systèmes artificiels généralement intelligents. Le problème de longue date de la création d’une intelligence artificielle générale (IAG) est résolu. Reconnaître ce fait est essentiel – pour les politiques publiques, la gestion des risques et la compréhension de la nature de l’esprit, voire du monde lui-même.

"Ce que l'intelligence générale n'est pas

Nous pouvons commencer par identifier quatre caractéristiques qui ne sont pas nécessaires à l'intelligence générale.

La perfection.  On n'attend pas d'un physicien qu'il égale les intuitions d'Einstein, ni d'un biologiste qu'il réitère les découvertes de Charles Darwin. Rares sont les êtres humains, même dans leurs domaines de spécialisation, à posséder une expertise parfaite. L'intelligence générale humaine n'a pas besoin d'être parfaite ; l'intelligence artificielle générale non plus.

Universalité.  Aucun être humain ne peut accomplir toutes les tâches cognitives, et d'autres espèces possèdent des capacités qui surpassent les nôtres : une pieuvre peut contrôler ses huit bras indépendamment ; de nombreux insectes peuvent percevoir des parties du spectre électromagnétique invisibles à l'œil nu. L'intelligence générale n'exige pas une maîtrise universelle de ces compétences ; une intelligence artificielle générale (IAG) n'a pas besoin d'une étendue parfaite.

Similitudes humaines.  L'intelligence est une propriété fonctionnelle qui peut se manifester sur différents supports – un point que Turing a reconnu dès 1950 en faisant abstraction de la biologie humaine¹ . Les systèmes faisant preuve d'intelligence générale n'ont pas besoin de reproduire l'architecture cognitive humaine ni de comprendre les références culturelles humaines. Nous n'exigerions pas cela d'extraterrestres intelligents ; il en va de même pour les machines.

Superintelligence.  Ce terme désigne généralement tout système dont les performances cognitives surpassent largement celles des humains dans presque tous les domaines. Superintelligence et intelligence artificielle générale (IAG) sont souvent confondues, notamment dans le monde des affaires, où la « superintelligence » est souvent synonyme de bouleversements économiques. Aucun être humain ne répond à ce critère ; il ne devrait pas non plus être requis pour l’IAG.

AI vs Human intelligence



A LIRE

Will Artificial Intelligence Surpass Human Intelligence? - A Viewpoint
https://www.infosys.com/iki/techcompass/ai-surpass-human-intelligence.html




SYNTHÈSE NOTEBOOKLM
 
Ces documents examinent les progrès critiques de la coopération internationale et de l'intelligence artificielle face aux défis planétaires. Le premier texte souligne l'importance de réformer les processus de décision multilatéraux pour résoudre les crises environnementales liées au climat et à la pollution plastique. En parallèle, le second texte affirme que les modèles de langage actuels ont désormais atteint le stade de l'intelligence artificielle générale (IAG) en surpassant les capacités humaines dans divers domaines cognitifs. Les auteurs rejettent les critiques anthropocentrées, soutenant que la maîtrise technologique du langage prouve une compréhension profonde de la réalité. Ensemble, ces sources appellent à une nouvelle gouvernance mondiale capable de gérer aussi bien l'effondrement écologique que l'émergence d'esprits non biologiques. Cette synthèse suggère que l'humanité doit d'urgence adapter ses structures politiques à une ère où elle n'est plus la seule entité intelligente.

unnamed 2026 02 19T162614.579
 

Comment les modèles d'IA actuels ont-ils réussi le test de Turing ?

D'après les sources fournies, les modèles d'IA actuels ont réussi le test de Turing en démontrant une compétence cognitive générale et flexible qui leur permet de se faire passer pour des humains auprès de juges humains non avertis.
Voici les détails spécifiques sur la manière dont cette réussite s'est concrétisée et les preuves qui l'accompagnent :
La réussite spécifique du test En mars 2025, le grand modèle de langage (LLM) GPT-4.5, développé par OpenAI, a été soumis à un test de Turing. Les juges humains ont estimé que le modèle était humain dans 73 % des cas.  Fait notable, ce taux de réussite est supérieur à celui obtenu par de véritables humains lors du même test.
Au-delà de la simple conversation Les sources soulignent que la réussite du test de Turing s'inscrit dans une "cascade de preuves" plus large démontrant une intelligence générale Outre la conversation, les modèles actuels ont égalé ou dépassé les capacités humaines dans plusieurs domaines :
Littérature : les lecteurs ont préféré des textes littéraires générés par des LLM à ceux écrits par des experts humains.
Mathématiques et Sciences : Les LLM ont atteint un niveau de médaille d'or aux Olympiades internationales de mathématiques, ont collaboré avec des mathématiciens pour prouver des théorèmes et ont généré des hypothèses scientifiques validées par l'expérimentation.
Résolution de problèmes complexes : Ils ont réussi à résoudre des problèmes issus d'examens de doctorat et assistent des programmeurs professionnels dans l'écriture de code.
Réponse aux critiques sur la "perroquet stochastique" Bien que certains critiques affirment que ces modèles ne font que "recracher" des modèles d'entraînement (l'argument du "perroquet stochastique"), les auteurs réfutent cette idée en soulignant que les modèles actuels résolvent de nouveaux problèmes mathématiques inédits et font preuve d'un transfert de compétences entre domaines (par exemple, l'apprentissage du code améliorant le raisonnement général).
En résumé, les modèles actuels ont réussi le test de Turing à la fois en trompant les juges humains lors de conversations, et en démontrant une "compétence cognitive large et flexible" que l'on peut qualifier d'intelligence générale artificielle (AGI)IA1
 
IA2
 
IA3
 
IA4
 
IA5
 
IA6
 
IA7IA8
 
IA9
 
IA10
 
IA11
 
IA12
 
IA13
Commentaire
Les applications nouvelles de l'IA en médecine se multiplient . Mais à part la gestion d'un cabinet médical, d'une clinique, d'un CH et d'un CHU , aucune de ces applications n'est applicable, excepté en radiologie. Les articles  proposent dans toutes les spécialités médicales des avancées "CONSIDÉRABLES", mais en pratique aujourd'hui : presque  RIEN .Toutefois pour la bibliographie c'est génial, les synthèses scientifiques aussi. Mais, dans la VRAIE VIE de la pratique médicale, on n' est pas meilleurs.



COPY1