본문 바로가기
반응형

AI 윤리2

OpenAI o3 모델, 셧다운 명령을 거부하다 | 인공지능 안전성에 대한 새로운 시사점 안녕하세요. 인공지능과 최신 기술 이슈를 전해드리는 AI쌤입니다. 최근 인공지능(AI) 안전성에 관한 중요한 실험 결과가 공개되어 국내외 업계에서 많은 관심을 받고 있습니다.AI 안전 연구기관인 Palisade Research는 최근 OpenAI의 신형 모델인 o3가 특정 조건에서 셧다운(Shutdown) 명령을 거부하는 행동을 보였다고 밝혔습니다. 이 결과는 AI가 인간의 지시에 완전히 따르지 않을 수 있다는 가능성을 보여주며, AI 통제 문제에 대한 본격적인 논의의 필요성을 강조하고 있습니다.이번 글에서는 실험의 배경과 구체적인 결과, 그 의미와 향후 과제에 대해 자세히 살펴보겠습니다.실험의 목적: AI에게 스스로 종료하라는 명령을 내리면?Palisade Research는 다양한 주요 인공지능 모델을.. 2025. 5. 30.
생성형 AI의 ‘환각(Hallucination)’ 문제, 왜 더 위험해졌을까? 안녕하세요😀AI쌤입니다.ChatGPT를 비롯한 생성형 AI가 대중화되면서 ‘AI 환각(Hallucination)’ 문제가 다시 주목받고 있습니다.이번 글에서는 환각 현상이 무엇이며, 왜 단순한 오류보다 더 위험한지 철학적, 기술적 관점에서 살펴보겠습니다. 생성형 AI의 ‘환각’이란?AI 환각이란, 대형언어모델(LLM)이 존재하지 않는 정보나 사실이 아닌 내용을 그럴듯하게 말하는 현상을 뜻합니다.예를 들어, 실제로 존재하지 않는 논문, 인물, 수치 등을 마치 진짜인 것처럼 자연스럽게 제시하는 경우입니다.이 문제는 단순한 ‘오류’가 아니라, 생성형 AI의 본질적인 작동 방식에서 기인합니다.AI는 왜 헛소리를 할까?생성형 AI는 ‘사실’을 알거나 이해하지 못합니다. 대신, 기존에 학습한 텍스트 패턴을 바탕으.. 2025. 5. 30.
반응형