Vietnam.vn - Nền tảng quảng bá Việt Nam

Le sujet autrefois « tabou » de l’IA devient plus ouvert

Autrefois sujet tabou, les discussions sur le potentiel de la « conscience » dans l’IA sont désormais prises plus au sérieux par les grandes entreprises technologiques comme Anthropic et Google DeepMind.

Zing NewsZing News29/04/2025


Il y a trois ans, évoquer la possibilité d’une IA « consciente » était le moyen le plus rapide de se faire licencier dans la Silicon Valley. Mais aujourd’hui, alors que les systèmes d’IA deviennent plus complexes, le monde de la technologie commence à s’ouvrir davantage au sujet.

La startup d'IA Anthropic a récemment annoncé le lancement d'une nouvelle initiative de recherche visant à explorer la possibilité que les modèles d'IA connaissent la « conscience » à l'avenir. Pendant ce temps, un scientifique de Google DeepMind a décrit les systèmes actuels comme des « entités étranges semblables à de l’intelligence ».

Il s’agit d’un grand changement par rapport à 2022, lorsque l’ingénieur Blake Lemoine a été licencié par Google après avoir affirmé que le chatbot LaMDA montrait des signes de conscience de soi et avait peur d’être fermé. Google a nié ces allégations à l’époque, les qualifiant de « complètement sans fondement », et la communauté de l’IA a rapidement étouffé le débat.

Anthropic, la société à l'origine du chatbot Claude, affirme ne pas prétendre que les modèles actuels sont conscients. Mais supposer que la réponse est « non » n’est plus une approche responsable, selon Kyle Fish, un scientifique qui étudie le « bien-être de l’IA » à Anthropic.

Dans une vidéo publiée le 25 avril, Fish a soutenu que nous devons sérieusement envisager la possibilité que les systèmes d’IA puissent atteindre une certaine forme de conscience au cours de leur développement. Il s’agit cependant de questions techniques et philosophiques extrêmement complexes, et nous n’en sommes qu’aux tout premiers stades de leur compréhension.

Selon Fish , l'équipe d'Anthropic estime que la probabilité que Claude 3.7 soit conscient se situe entre 0,15 % et 15 %. Ils mènent des expériences pour tester la capacité du modèle à exprimer ses goûts et ses dégoûts, ainsi que pour développer des mécanismes qui permettraient à l'IA de refuser d'effectuer des tâches « désagréables ».

Le PDG d'Anthropic, Dario Amodei, a même proposé l'idée d'intégrer un bouton « Je refuse ce travail » dans les futurs systèmes d'IA - pas tant pour l'IA consciente, mais pour observer les modèles de comportement de refus et ainsi identifier les signes d'anomalies.

Chez Google DeepMind, le scientifique en chef Murray Shanahan soutient qu’il est temps de « plier ou briser » la définition traditionnelle de la conscience pour s’adapter aux nouveaux systèmes d’IA.

« Nous ne pouvons pas interagir avec eux comme nous le ferions avec un chien ou une pieuvre, mais cela ne veut pas dire qu’il n’y a absolument rien », a déclaré Shanahan dans un podcast publié le 25 avril.

Google a également montré un intérêt sérieux pour ce sujet. Une offre d’emploi récente de l’entreprise recherche un chercheur « post-AGI » (Intelligence Artificielle Générale) dont les tâches incluent la recherche sur la conscience des machines.

Google, IA, AGI frère 1

Google a commencé à s’ouvrir davantage sur le sujet de « l’IA consciente ». Photo : Reuters

Cependant, tous les membres de la communauté scientifique ne sont pas d’accord avec cette nouvelle approche. Jared Kaplan, directeur scientifique chez Anthropic, soutient que l’IA est très douée pour le mimétisme et pourrait parfaitement prétendre avoir une conscience sans en posséder réellement.

« Nous pourrions même récompenser l’IA pour avoir prétendu ne pas avoir d’émotions », a déclaré Kaplan au New York Times .

Gary Marcus, un éminent scientifique cognitif et critique fréquent du battage médiatique dans le secteur de l’IA, soutient que les discussions sur « l’IA consciente » relèvent davantage du marketing que de la science.

« Ce qu'une entreprise comme Anthropic fait réellement, c'est envoyer le message : « Regardez, notre modèle est tellement intelligent qu'il mérite d'avoir des droits » », a commenté Marcus à Business Insider .

Bien que le débat se poursuive, les chercheurs s'accordent à dire que la présence croissante de l'IA dans le travail, la vie et même les émotions personnelles soulèvera la question : « L'IA ressent-elle des émotions ? » devenant de plus en plus important.

« Ce problème deviendra de plus en plus important à mesure que nous interagirons avec les systèmes d’IA dans davantage de contextes », a déclaré Fish.


Source : https://znews.vn/chu-de-cam-ky-mot-thoi-cua-ai-dang-coi-mo-hon-post1549475.html


Comment (0)

Simple Empty
No data

Même sujet

Même catégorie

Hô-Chi-Minh-Ville est en pleine effervescence avec les préparatifs de la « Journée de la réunification nationale »
Ho Chi Minh-Ville après la réunification nationale
10 500 drones s'affichent dans le ciel d'Ho Chi Minh-Ville
Défilé du 30 avril : vue sur la ville depuis l'escadron d'hélicoptères

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit