인공지능(AI)은 OpenAI가 2022년 11월에 ChatGPT를 발표한 이후 기술 업계에서 가장 큰 화두가 되어 왔습니다. 그 후 Google, Meta, Microsoft 등의 회사도 자체 AI 개발에 막대한 투자를 했습니다.
빅테크 기업들은 AI에 대한 야망을 드러내는 것을 꺼리지 않지만, 최근에는 이 기술이 자사 사업에 미치는 위험을 조용히 다루고 있습니다. 알파벳(구글의 모회사)은 2023년 연례 보고서에서 AI 제품과 서비스가 윤리적, 기술적, 법적, 규제적 문제를 야기하며, 이는 브랜드와 수요에 부정적인 영향을 미칠 수 있다고 밝혔습니다.

블룸버그에 따르면, 메타, 마이크로소프트, 오라클 역시 미국 증권거래위원회(SEC)에 제출한 서류에서 AI에 대한 우려를 언급했는데, 그 내용은 대개 "위험 요소" 섹션에 포함되어 있습니다. 예를 들어, Microsoft에서는 생성 AI 기능이 예상치 못한 보안 위협에 취약할 수 있다고 지적합니다.
메타의 2023년 연례 보고서에서 Facebook 모회사는 "AI 개발 및 배포에는 상당한 위험이 따른다"며 "AI를 사용한다고 해서 서비스, 제품이 개선되거나 비즈니스 운영에 도움이 될 것이라는 보장은 없다"고 강조했습니다. 메타는 사용자에게 해를 끼치고 소송에 노출될 수 있는 AI 시나리오를 나열합니다. 여기에는 허위 정보(선거 등), 악성 콘텐츠, 지적 재산권 침해, 데이터 개인 정보 보호 등이 포함됩니다.
한편, 대중은 AI가 일부 직업을 쓸모없게 만들거나 사라지게 만들거나, 개인 데이터로 훈련된 대규모 언어 모델이 잘못된 정보를 퍼뜨릴 수 있다는 우려를 표명했습니다.
6월 4일, OpenAI의 전직 및 현직 직원으로 구성된 그룹은 기술 기업에 AI의 위험을 최소화하기 위해 더 많은 노력을 기울여 줄 것을 요청하는 "의향서"를 보냈습니다. 그들은 AI가 불평등, 조작, 잘못된 정보를 증가시키고, 통제 불가능한 자동화된 AI 시스템이 인류의 생존을 위협한다고 우려합니다.
원천
댓글 (0)