영국은 지난 3월 AI 전략 백서를 발표하면서, 기존 규제 기관이 과도한 새 법안을 마련하기보다는 AI 애플리케이션이 권장 지침을 준수하도록 현행 규정을 활용할 것을 요청할 방침이라고 밝힌 바 있다.

영국 규제 당국은 수 개월 안에 위험 평가 템플릿을 배포하고, 정부의 안전, 보안과 견고성, 투명성, 설명가능성, 공정성, 책임과 거버넌스, 경합성, 구제 원칙을 구현하는 방법을 명시하는 실용적인 지침을 기업 대상으로 발표할 것으로 보인다.
영국의 과학 기술 전담 부처인 과학혁신기술부는 "AI 안전 문제를 두고 전 세계 기술 업체와 긴밀히 협력해 첨단 기술인 AI의 안전성을 강화하고, 전 세계인이 향후 그 이점을 활용하기를 기대한다. 초기 이해관계자 협의 및 사실 수집을 기반으로 과학혁신기술부가 만든 5가지 기조는 서밋의 논의 틀이 될 것"이라고 발표했다.
2023년 7월 AI 거버넌스 센터의 정책 책임자인 마커스 안더융 박사가 발표한 논문에서는 '프론티어 AI'라는 단어가 주목을 받았다. 프론티어 AI의 정의는 위험한 능력을 발휘하는 고도의 기초 모델이다. 논문 저자들은 기초 모델은 일종의 생성형 AI이며, 이러한 차세대 모델은 "의도적 오용이나 사고로 인한 심각한 신체적 피해 또는 전 세계 규모의 주요 사회 기능 붕괴'라는 위험을 초래할 수 있다고 경고했다.
AI 안전 서밋의 다섯 가지 기조는 다음과 같다. 서밋 참가자 전체 명단은 아직 공개되지 않았다.
- 프론티어 AI가 초래하는 위험 그리고 조치의 필요성에 대한 이해를 공유하고 높인다.
- 국가와 국제 단위의 프레임워크를 가장 잘 지원하는 방법 등 프론티어 AI 안전에 대한 국제 협력 프로세스를 제시한다.
- 개별 기업이 프론티어 AI 안전을 강화하기 위해 취해야 할 조치를 제안한다.
- 모델 기능 평가 및 거버넌스 지원을 위한 새로운 표준을 개발하는 등 AI 안전 연구에서 협력 가능한 분야를 파악한다.
- AI의 안전한 개발을 보장해 전 세계가 AI를 선한 목적으로 사용하는 방법을 소개한다.