Customise Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorised as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyse the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customised advertisements based on the pages you visited previously and to analyse the effectiveness of the ad campaigns.

No cookies to display.

Skip to content Skip to footer

Le directeur général de Google DeepMind, Demis Hassabis, révèle quand l’IA surpassera l’humain.

Perspiciatis unde omnis iste natus error sit voluptatem.

Le PDG de Google DeepMind, Demis Hassabis, a déclaré qu’une intelligence artificielle forte (Artificial General Intelligence, AGI), qui serait au moins équivalente à l’humain, voire supérieure, serait développée dans les cinq à dix prochaines années. Il est absolument convaincu de la faisabilité de la création d’une AGI et estime que la résolution de ce problème n’est qu’une question de temps. Hassabis définit l’AGI comme “un système capable de démontrer toutes les capacités complexes propres à l’être humain”.

IA égalera les humains dans n’importe quelle tâche d’ici dix ans, estime le patron de Google DeepMind

« Je pense que les systèmes actuels sont très passifs, il y a encore beaucoup de choses qu’ils ne peuvent pas faire. Mais je pense que dans les cinq à dix prochaines années, beaucoup de ces capacités commenceront à se manifester, et nous commencerons à nous diriger vers ce que nous appelons l’intelligence artificielle générale », estime Hassabis. Il n’est pas le seul à penser ainsi — l’année dernière, le PDG du géant technologique chinois Baidu, Robin Li, a déclaré que l’AGI arriverait « dans plus de 10 ans ».

D’autres collègues de Hassabis sont plus optimistes. Le PDG d’Anthropic, Dario Amodei, est convaincu qu’un modèle d’IA « meilleur que presque tous les humains dans presque toutes les tâches » verra le jour dans les « deux à trois prochaines années ». Le directeur des produits de Cisco, Jeetu Patel, estime que l’AGI pourrait être créé dès cette année. Le PDG de Tesla, Elon Musk, a prédit que l’AGI deviendrait probablement une réalité d’ici 2026, tandis que le PDG d’OpenAI, Sam Altman, pense qu’un tel système pourrait être développé dans un « avenir relativement proche ». 

Hassabis est allé plus loin dans ses prédictions et a suggéré qu’après l’apparition de l’AGI, une superintelligence artificielle (ASI) ferait son entrée, surpassant l’homme dans tous les domaines. Cependant, « personne ne sait vraiment » quand une telle percée se produira, a-t-il admis.

Selon Hassabis, le principal défi dans la création d’une IA généralisée (AGI) est d’amener les systèmes d’IA actuels à un niveau de compréhension du contexte du monde réel. « La question est de savoir à quelle vitesse nous pourrons généraliser les idées de planification et de comportement d’agent, de planification et de raisonnement, puis de les appliquer au monde réel, en les complétant avec des éléments tels que des modèles du monde capables de comprendre la réalité qui nous entoure », a-t-il expliqué.

 

Les panneaux solaires et l’IA.

Mark Twen via Unsplash

Selon Hassabis, les développeurs accordent de plus en plus d’attention ces derniers temps aux systèmes multi-agents d’intelligence artificielle. Il a cité comme exemple les recherches de DeepMind sur l’entraînement d’agents d’IA au jeu Starcraft : « Nous avons fait beaucoup de travail là-dessus, par exemple, dans le projet Starcraft, où nous avions une communauté d’agents ou une ligue d’agents capables de concourir et de coopérer. »

Les cadres supérieurs et les principaux développeurs en IA s’accordent sur un point : ils ne voient pas l’avenir proche de l’humanité sans des systèmes d’IA omniscients, tout-puissants et savants qui, selon eux, surpasseront l’homme dans tous les domaines. Apparemment, ils pensent que cette invasion de “criquets” d’IA, “assombrissant le ciel“, ne les affectera pas, ni leurs proches.

“Today’s [AI] systems, they’re very passive, but there’s still a lot of things they can’t do,” Hassabis said during a briefing at Deepmind’s London headquarters on Monday. “But over the next five to 10 years, a lot of those capabilities will start coming to the fore and we’ll start moving towards what we call artificial general intelligence.”

Demis Hassabis

Quand pourrons-nous se servir pleinement de l’AGI ?

We are on the edge of change comparable to the rise of human life on Earth. — Vernor Vinge

Quand faut-il s’attendre à un tournant ? Combien de temps reste-t-il avant que le premier système n’atteigne le niveau de superintelligence ? Et bien ! Il me revient à l’esprit l’article de Tim Urban, “La révolution de l intelligence artificielle : vers la superintelligence“, publié le 22 janvier 2015.

 

Steelldy Newsletter

Recevez gratuitement par email une sélection de podcasts et de programmes à écouter.

 
 

Il est tout à fait prévisible que les avis divergent considérablement. Une discussion animée était en cours entre les scientifiques et les théoriciens spécialisés dans le domaine. Nombreux sont ceux, dont le professeur Vernor Vinge, le scientifique Ben Goertzel, le co-fondateur de Sun Microsystems Bill Joy, l’inventeur et futurologue Ray Kurzweil, qui ont convergé avec l’expert en apprentissage automatique Jeremy Howard, dont le dernier a présenté le graphique suivant lors d’une conférence TED :

Ces scientifiques partagent l’opinion que la superintelligence émergera bientôt : les capacités de l’IA croissent de façon exponentielle. Actuellement, les algorithmes d’apprentissage automatique ne font qu’approcher notre niveau (humain), mais d’ici 30 ans, ils nous dépasseront largement.

Or, pour d’autres, comme le co-fondateur de Microsoft Paul Allen, le chercheur en psychologie Gary Marcus, le spécialiste en informatique de l’Université de New York Ernest Davis et l’entrepreneur technologique Mitch Kapor, les théoriciens comme Kurzweil sous-estiment sérieusement la complexité de la tâche, et le point de bascule est loin d’être aussi proche.

Le camp de Kurzweil objecte que ce qui est sous-estimé, c’est le caractère exponentiel de la croissance. Les sceptiques sont comparés à ceux qui, en 1985, affirmaient qu’Internet, en pleine croissance, n’aurait aucun impact sur nos vies dans un avenir proche.

Les « sceptiques » répliquent : le caractère exponentiel du développement de l’intelligence est annulé par le fait que la complexité du matériel nécessaire pour la maintenir à chaque étape suivante augmentera également de façon exponentielle. Et ainsi de suite dans le même esprit.

Un troisième camp, auquel appartient Nick Bostrom, n’est d’accord ni avec les premiers, ni avec les seconds, et estime que : a) cela peut absolument se produire dans un avenir proche ; et b) il n’y a aucune garantie : il faudra peut-être plus de temps.

D’autres, comme le philosophe Hubert Dreyfus, estiment qu’il est naïf de croire qu’un point de bascule se produira : très probablement, nous n’atteindrons jamais la super-intelligence. Qu’obtient-on si l’on combine toutes ces opinions ?

En 2013, lors d’une série de conférences, Nick Bostrom et Vincent C. Müller ont posé la question suivante à plusieurs centaines d’experts en intelligence artificielle : « Dans l’hypothèse où aucune interruption majeure n’interviendrait dans l’activité scientifique de l’humanité, donnez/indiquez l’année où l’IA de niveau humain sera développée avec une probabilité P ». Il fallait faire trois estimations : optimiste (IA forte développée avec une probabilité de 10%), réaliste (avec une probabilité de 50%) et prudente (avec une probabilité de 90%). Voici les résultats :

Médiane des prévisions optimistes (P=10%) : 2022

Médiane des prévisions réalistes (P=50%) : 2040

Médiane des prévisions pessimistes (P=90%) : 2075

Ainsi, les scientifiques penchent vers une apparition probable de l’IA forte d’ici 25 ans. La moitié des experts en IA sont pratiquement certains que l’IA avancée sera développée en 2075. Cela signifie que les adolescents d’aujourd’hui en seront assurément témoins.

Lors de la conférence annuelle de Ben Goertzel sur l’IA avancée, James Barrat a mené une étude distincte. Il a renoncé à l’évaluation des probabilités et a simplement demandé aux répondants de répondre à la question de savoir quand une IA forte serait développée. Cinq options étaient proposées : d’ici 2030, d’ici 2050, d’ici 2100, plus tard ou jamais. Voici les résultats :

En 2030 : 42 % des répondants

En 2050 : 25 %

En 2100 : 20 %

Plus tard : 10 %

Jamais : 2 %

Cela ressemble aux résultats de Bostrom et Müller. Dans le sondage de Barrat, plus des deux tiers des personnes interrogées estiment qu’une IA forte apparaîtra d’ici 2050, et moins de la moitié pensent que cela se produira dans les 15 prochaines années. Il est également frappant de constater que seulement 2 % des personnes interrogées ne considèrent pas une IA avancée comme faisant partie de notre avenir.

Cependant, le point de basculement ne se produira pas avec le développement d’une IA avencée, mais avec le développement d’une superintelligence artificielle. Quand, selon les experts, sera-t-elle développée ?

Müller et Bostrom ont interrogé des experts sur la probabilité de développer une superintelligence artificielle : a) deux ans après le développement d’une IA avancée (c’est-à-dire qu’un développement explosif de l’intelligence se produira presque instantanément) ou b) dans 30 ans.

Pour une transition rapide d’une IA avancée à une superintelligence, la médiane était d’environ 10 % de probabilité, et pour une transition de 30 ans ou moins, de 75 %.

À partir de ces données, on ne sait pas quelle est la durée de transition possible avec une probabilité de 50 %. Sur la base des deux réponses ci-dessus, supposons que cela prenne 20 ans. Ainsi, la communauté scientifique estime en moyenne que le point de basculement se produira en 2060 (l’IA avancée apparaîtra en 2040 + 20 ans de transition vers la superintelligence).

Sources

  1. AI that can match humans at any task will be here in five to 10 years, Google DeepMind CEO says
  2. Elon Musk predicts smarter-than-humans AI in 2 years. The CEO of China’s Baidu says it’s 10 years away
  3. OpenAI’s Sam Altman says human-level AI is coming but will change world much less than we think
  4. Google DeepMind CEO says that humans have just over 5 years before AI will outsmart them
  5. Революция искусственного интеллекта: на пути к сверхразуму
  6. The AI Revolution: The Road to Superintelligence
  7. Об искусственном сознании и не только

Sign Up to Our Newsletter

Be the first to know the latest updates