
인공지능 기술에 대한 안전, 보안 및 신뢰성 강화를 위한 자발적인 약속
안녕하세요! 이번에는 인공지능 기술의 안전, 보안 및 신뢰성을 강화하기 위한 선도적인 인공지능 연구소들이 자발적인 약속을 하고 있다는 소식입니다. 이 프로세스는 백악관에서 조정되며, 미국과 전 세계적으로 의미 있는 효과적인 인공지능 거버넌스를 진전시키는 중요한 단계입니다. OpenAI는 안전하고 혜택이 있는 AGI를 구축하기 위한 미션의 일환으로, 자체적으로 고능력의 기반 모델을 위한 구체적인 거버넌스 규정을 개발하고 개선해 나갈 것입니다. 또한, 위험한 AI 모델의 능력을 평가하는 기법과 같은 규제에 도움이 되는 연구에 투자할 것입니다.
자발적인 AI 약속 목록은 다음과 같습니다:
안전
- 모델이나 시스템의 내·외부에서의 잘못된 사용, 사회적 위험 및 국가 안보와 관련된 분야에서의 모델 또는 시스템의 레드팀 테스트에 동의합니다.
- 신뢰 및 안전 위험, 위험한 능력 또는 우회 방지 시도에 대한 기업 간 및 정부 간의 정보 공유에 기여하기 위해 노력할 것입니다.
보안 3) 소유권이 있는 AI 모델 가중치의 사이버보안 및 내부 위협 방지 조치에 투자할 것입니다. 4) 책임 있는 취약점 보고를 유도하기 위해 제3자에게 문제 및 취약점의 발견을 인센티브로 제공할 것입니다.
신뢰 5) AI로 생성된 오디오 또는 비주얼 콘텐츠가 AI로 생성되었음을 사용자가 알 수 있는 메커니즘을 개발하고 배포할 것입니다. 6) 모델 또는 시스템의 능력, 한계 및 적절한 사용 영역과 부적절한 사용 영역의 공개 보고서 작성에 동의합니다. 7) AI 시스템이 가지는 사회적 위험을 연구하고, 피해야 할 편견과 차별을 피하기 위한 연구를 우선시할 것입니다. 8) 사회의 가장 큰 도전에 대처하기 위해 frontier AI 시스템을 개발하고 배포할 것입니다.
위의 약속은 기업들이 안전, 보안 및 투명한 개발과 사용을 촉진하기 위해 하고 있는 것으로, 기존의 법률과 규정과 일치하며, 일부 사항에 대한 규정이 제정될 때까지 유지될 것입니다. 개별 기업들은 여기에 포함된 내용을 넘어 추가적인 약속을 할 수도 있습니다.
이러한 약속들은 인공지능 기술의 발전에 있어 중요한 역할을 합니다. 이와 관련된 협력은 정부, 시민사회 단체 및 기타 국제 기관과의 지속적인 협력을 통해 이루어질 것입니다. 앞으로도 OpenAI와 다른 인공지능 연구소들은 인공지능 거버넌스의 진전을 위해 전 세계 정부와 협력하여 노력할 것입니다.
이 글은 인공지능 기술의 안전, 보안 및 신뢰성을 강화하기 위한 기업들의 자발적인 약속에 대한 내용을 소개하고 있습니다.
자세히 읽기
Discussions (0)
관련 블로그




