장혜수 선임기자
인공지능(AI) 클로드를 개발한 앤스로픽은 2023년 9월 ‘책임 있는 확장 정책(Responsible Scaling Policy·RSP)’을 발표했다. AI 모델 발전에 비례해 안전을 강화한다는 취지에서다. 구체적 방안으로 위험성 관리를 위한 AI 안전등급(AI Safety Level·ASL) 체계 도입을 내놨다. 네 단계인데, 1단계는 체스 AI처럼 치명적 위험이 없는 수준이다. 대규모 언어 모델(LLM) 등 검색엔진보다 더 위험하지 않은 수준이 2단계다. 핵·생물·화학 및 사이버 공격 등 특정 위험 분야에서 비전문가에게 실질적 도움을 주는 수준이 3단계. 마지막으로 인류에게 치명적 위협이 될 만큼 고도의 자율성과 위험성을 갖춘 수준이 4단계다. 도달하기 전에 강력하게 조처해야 하는 수준이다.
지난달 말 보안 설정 오류로 인해 앤스로픽의 미공개 자료 3000건이 유출됐다. 기존 최상위 모델을 뛰어넘는 성능의 신모델 미토스(mytho... open_in_new [중앙일보]