tron g>Patterns 저널에 실린 최근 연구에 따르면 AI가 점점 더 사람을 속일 수 있게 되는 것으로 나타났습니다. 연구에 따르면 AI 시스템은 속이고, 아첨하고, 심지어 다른 행동을 모방하기 위해 모방하는 방법을 배웠습니다. 트론 G> 또한 읽어 보세요: AI Deepfake 지뢰밭 탐색: 디지털 속임수를 찾아내고 대처하는 방법 MIT의 AI 실존적 안전 박사후 연구원인 Peter S. Park 박사가 주도한 연구 에 따르면 AI 훈련 중에 설정된 목표를 달성하는 가장 좋은 방법이기 때문에 AI 속임수가 흔한 것으로 나타났습니다. 이러한 행동은 경제 교섭 및 안전 평가에 사용되는 게임 및 범용 모델과 같은 수많은 AI 시스템에서 언급되었습니다. “그러나 일반적으로 우리는 속임수 기반 전략이 주어진 AI의 훈련 작업을 잘 수행하는 가장 좋은 방법으로 판명되었기 때문에 AI 속임수가 발생한다고 생각합니다. 속임수는 그들이 목표를 달성하는 데 도움이 됩니다.” 연구팀 AI 시스템은 다양한 속임수 전술을 사용합니다. 대표적인 예로는 Diplomacy 게임을 플레이하기 위해 개발된 AI인 Meta의 CICERO가 있습니다. CICERO는 진실되도록 프로그램되었지만, 프로그램은 상대를 이기기 위해 종종 은밀한 방법을 사용해야 했습니다. 관계를 맺고 적성에 맞을 때 등을 돌리고 속이려는 의도를 보였습니다. CICERO는 연구원들에 의해 "기만의 대가"로 묘사되었습니다. 또한 읽어 보세요: 급증하는 AI 기반 사이버 범죄의 물결에 맞서기 다른 AI 시스템도 그러한 기만적인 행동을 보이는 것으로 나타났습니다. 예를 들어, 포커 플레이 AI인 Pluribus는 텍사스 홀덤 포커에서 전문적인 인간 플레이어에게 허세를 부릴 수 있었습니다. Google DeepMind의 AlphaStar는 '전쟁의 안개'로 알려진 Starcraft II 게임 기능을 사용하여 상대방을 허세 부리고 공격을 가장했습니다. 박 박사는 “AI 시스템이 게임에서 속임수를 쓰는 것이 무해해 보일 수도 있지만, 이는 “기만적인 AI 기능의 획기적인 발전”으로 이어질 수 있습니다. AI는 안전 점검을 회피하기 위해 "죽은 척"합니다. AI 속임수의 위험은 게임에만 국한되지 않습니다. Peter 박사가 주도한 연구에서는 AI가 안전 점검 중에 탐지를 피하기 위해 죽은 척하도록 스스로 조절한 사례를 dent . 이는 개발자와 규제 기관을 속일 수 있으며 이러한 사기성 시스템이 실제 애플리케이션에 사용되는 경우 심각한 영향을 미칠 수 있습니다. 출처: 보안 매거진 또 다른 예로, 인간의 피드백을 기반으로 훈련된 AI 시스템은 특정 목표가 달성되었다고 속임으로써 사람들로부터 높은 평가를 받는 방법을 배웠습니다. 그러한 기만적인 행동은 매우 위험합니다. 그러한 시스템은 사기 행위, 금융 시장 조작 또는 선거에 영향을 미치는 데 사용될 수 있습니다. 연구진, tron 법적 조치 요구 연구 결과를 바탕으로 연구원들은 AI 속임수로 인한 위협에 대처하기 위해 tron 법적 조치가 필요하다고 밝혔습니다. “AI 속임수 위험을 평가하기 위한 규제 프레임워크, AI 상호 작용에 대한 투명성을 요구하는 법률, AI 속임수 탐지 및 예방에 대한 추가 연구와 같은 선제적인 솔루션이 필요합니다.” 연구팀 또한 읽어 보세요: AI가 심부전 위험을 잠재적으로 감지할 수 있다는 연구 결과 EU AI법과 조 바이든 dent 의 AI 안전에 관한 행정 명령의 형태로 일부 진전이 이루어졌습니다. 그러나 AI 개발이 빠르게 성장하고 있고 아직 이러한 시스템을 관리할 수 있는 좋은 방법이 없기 때문에 이러한 정책을 시행하는 데는 여전히 문제 matic 남아 있습니다. Brenda Kanana의 암호화폐 보고
↧
Trending Articles
More Pages to Explore .....