El modelo es capaz de razonar, resolver problemas matemáticos complejos y responder preguntas de investigación científica, lo que se considera un importante paso adelante en el esfuerzo por desarrollar inteligencia artificial general (AGI), máquinas con capacidades cognitivas como las de los humanos.
OpenAI afirmó que fue particularmente “cauteloso” en la forma en que presentó el modelo o1 al público dadas sus capacidades avanzadas. Foto: Getty Images
Según el Financial Times, OpenAI calificó el riesgo de estos nuevos modelos como “medio” para problemas relacionados con armas químicas, biológicas, radiológicas y nucleares (QBRN), el más alto que la compañía haya evaluado jamás. Esto significa que la tecnología ha “mejorado significativamente” la capacidad de los expertos para crear armas biológicas.
Según los expertos, el software de IA capaz de razonar detalladamente, especialmente en manos de actores maliciosos, puede aumentar el riesgo de abuso.
El profesor Yoshua Bengio, un científico de IA líder a nivel mundial de la Universidad de Montreal, ha enfatizado que este nivel de riesgo medio aumenta la urgencia de promulgar regulaciones de IA, como el proyecto de ley SB 1047 que se debate en California. El proyecto de ley exigiría a los fabricantes de IA tomar medidas para reducir el riesgo de que sus modelos se utilicen indebidamente para desarrollar armas biológicas.
Según The Verge, la seguridad de los modelos de IA se ha convertido en una preocupación importante a medida que empresas de tecnología como Google, Meta y Anthropic se apresuran a construir y mejorar sistemas de IA avanzados.
Estos sistemas tienen el potencial de proporcionar grandes beneficios al ayudar a los humanos a completar tareas y brindar asistencia en una variedad de áreas, pero también plantean desafíos de seguridad y responsabilidad social.
Cao Phong (según FT, Reuters, The Verge)
[anuncio_2]
Fuente: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
Kommentar (0)