Vietnam.vn - Nền tảng quảng bá Việt Nam

El tema de la IA, que antes era un tema "tabú", se está volviendo más abierto

Las discusiones sobre el potencial de la “conciencia” en la IA, que alguna vez fue un tema tabú, ahora son tomadas más en serio por importantes empresas tecnológicas como Anthropic y Google DeepMind.

Zing NewsZing News29/04/2025


Hace tres años, mencionar la posibilidad de una IA “consciente” era la forma más rápida de ser despedido en Silicon Valley. Pero ahora, a medida que los sistemas de IA se vuelven más complejos, el mundo de la tecnología está comenzando a abrirse más al tema.

La empresa emergente de inteligencia artificial Anthropic anunció recientemente el lanzamiento de una nueva iniciativa de investigación para explorar la posibilidad de que los modelos de IA experimenten "conciencia" en el futuro. Mientras tanto, un científico de Google DeepMind describió los sistemas actuales como “entidades extrañas similares a inteligencia”.

Este es un gran cambio con respecto a 2022, cuando el ingeniero Blake Lemoine fue despedido por Google después de afirmar que el chatbot LaMDA mostraba signos de autoconciencia y tenía miedo de ser cerrado. Google negó las acusaciones en ese momento, calificándolas de “completamente infundadas”, y la comunidad de IA rápidamente silenció el debate.

Anthropic, la compañía detrás del chatbot Claude, dice que no afirma que los modelos actuales sean conscientes. Pero asumir que la respuesta es “no” ya no es un enfoque responsable, según Kyle Fish, un científico que estudia el “bienestar de la IA” en Anthropic.

En un video publicado el 25 de abril, Fish argumentó que debemos considerar seriamente la posibilidad de que los sistemas de IA puedan lograr alguna forma de conciencia durante su desarrollo. Sin embargo, se trata de cuestiones técnicas y filosóficas extremadamente complejas, y apenas estamos en las primeras etapas de su comprensión.

Según Fish , el equipo de Anthropic estima que la probabilidad de que Claude 3.7 esté consciente está entre el 0,15% y el 15%. Están realizando experimentos para probar la capacidad del modelo para expresar gustos y disgustos, así como desarrollando mecanismos que permitirían a la IA negarse a realizar tareas "desagradables".

El director ejecutivo de Anthropic, Dario Amodei, incluso propuso la idea de integrar un botón de "Rechazo este trabajo" en futuros sistemas de IA, no tanto para una IA consciente, sino para observar patrones de comportamiento de rechazo y así identificar signos de anomalías.

En Google DeepMind, el científico jefe Murray Shanahan sostiene que es hora de “modificar o romper” la definición tradicional de conciencia para dar cabida a nuevos sistemas de IA.

“No podemos interactuar con ellos como lo haríamos con un perro o un pulpo, pero eso no significa que no haya absolutamente nada allí”, dijo Shanahan en un podcast publicado el 25 de abril.

Google también ha mostrado un gran interés en este tema. Una publicación de trabajo reciente de la empresa está buscando un investigador “post-AGI” (Inteligencia General Artificial) cuyas tareas incluyen investigar la conciencia de las máquinas.

Google, IA, hermano de AGI 1

Google ha comenzado a hablar más abiertamente sobre el tema de la “IA consciente”. Foto: Reuters

Sin embargo, no todos en la comunidad científica están de acuerdo con el nuevo enfoque. Jared Kaplan, director científico de Anthropic, sostiene que la IA es muy buena en la imitación y podría perfectamente pretender tener conciencia sin poseerla realmente.

“Incluso podríamos recompensar a la IA por afirmar que no tiene emociones”, dijo Kaplan al New York Times .

Gary Marcus, un destacado científico cognitivo y frecuente crítico del revuelo en la industria de la IA, sostiene que las discusiones sobre la “IA consciente” son más marketing que ciencia.

"Lo que una empresa como Anthropic realmente está haciendo es enviar el mensaje: 'Mira, nuestro modelo es tan inteligente que merece tener derechos'", comentó Marcus a Business Insider .

Aunque el debate continúa, los investigadores coinciden en que la creciente presencia de la IA en el trabajo, la vida e incluso las emociones personales planteará la pregunta "¿La IA experimenta emociones?". cada vez más importante.

“Este problema se volverá cada vez más importante a medida que interactuemos con los sistemas de IA en más contextos”, afirmó Fish.


Fuente: https://znews.vn/chu-de-cam-ky-mot-thoi-cua-ai-dang-coi-mo-hon-post1549475.html


Kommentar (0)

Simple Empty
No data

Mismo tema

Misma categoría

Ciudad Ho Chi Minh está llena de preparativos para el "día de la reunificación nacional".
Ciudad Ho Chi Minh después de la reunificación nacional
10.500 drones desfilan en el cielo de Ho Chi Minh
Desfile del 30 de abril: Vista de la ciudad desde el escuadrón de helicópteros

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto