La Comisión Federal de Comercio de Estados Unidos (FTC) está ampliando su investigación sobre OpenAI en medio de preocupaciones de que ChatGPT pueda violar las regulaciones de protección al consumidor.
En consecuencia, las autoridades enviaron una solicitud de 20 páginas pidiendo a la empresa con sede en San Francisco que explique cómo evalúa los riesgos de los modelos de IA. La medida es la amenaza legal más fuerte hasta el momento para el negocio estadounidense de OpenAI, ya que la empresa propietaria de ChatGPT lanza una campaña global para dar forma al futuro de la regulación de la inteligencia artificial.
Además, las autoridades también pidieron a OpenAI que proporcionara detalles de todas las quejas que la empresa recibió relacionadas con el producto que hacían afirmaciones que eran “falsas, engañosas, desacreditantes o perjudiciales” para las personas.
En marzo, la empresa detrás de ChatGPT reveló un problema de seguridad en su sistema que permitía a algunos usuarios ver información relacionada con pagos y el historial de chat de otros usuarios. La FTC está investigando si este incidente violó las normas de protección al consumidor.
Esfuerzos para contener a Silicon Valley
La FTC se está convirtiendo en la “policía federal” de Silicon Valley, habiendo impuesto importantes multas a Meta, Amazon y Twitter por presuntas violaciones de las normas de protección al consumidor.
La presidenta de la FTC, Lina Khan, testificó ante el Comité Judicial de la Cámara de Representantes mientras el ambicioso plan de la agencia para controlar el poder de Silicon Valley sufría graves pérdidas en los tribunales.
También esta semana, un juez federal rechazó el intento de la FTC de bloquear la adquisición del fabricante de juegos Activision por parte de Microsoft por 69 mil millones de dólares.
Mientras tanto, Samuel Levine, director de la Oficina de Protección al Consumidor de la FTC, dijo que la agencia está preparada para mantenerse a la vanguardia de las amenazas emergentes. La FTC acoge con satisfacción la innovación, pero esto no implica imprudencia. Estamos dispuestos a utilizar todas nuestras herramientas para combatir las prácticas perjudiciales en este ámbito.
La agencia advierte contra el fraude de IA, utilizando inteligencia artificial para manipular a usuarios potenciales o exagerar las capacidades de un producto. Entre la información que la FTC solicitó a OpenAI se encontraban estudios, pruebas o encuestas que evaluaran las percepciones de los usuarios sobre “la precisión o confiabilidad de los resultados” producidos por la herramienta de IA.
(Según el Washington Post)
[anuncio_2]
Fuente
Kommentar (0)