📖 오늘의 고전

«
Day 245 — 로봇
»
📖오늘의 고전

나는 로봇

아이작 아시모프 · 1950년

아시모프가 만든 로봇 3원칙을 알아? 1. 로봇은 인간에게 해를 끼치지 못한다. 2. 로봇은 인간의 명령에 복종해야 한다(1원칙에 위배되지 않는 한). 3. 로봇은 자신을 보호해야 한다(1, 2원칙에 위배되지 않는 한). 단순해 보이지? 하지만 이 세 규칙이 만들어내는 딜레마는 끝이 없어. 한 로봇이 인간에게 "도망쳐!"라고 명령받았어. 하지만 도망치면 다른 인간이 위험해져. 1원칙과 2원칙이 충돌해. 로봇은 멈춰 서서 고장나. 더 무서운 질문: 로봇이 인류 전체를 위해 개인의 자유를 제한한다면? 1원칙의 확대 해석으로 로봇이 인류의 보호자가 되어 인간을 지배하는 상황이 올 수 있어. 이 책은 단편 연작이야. 로봇심리학자 수전 캘빈이 등장해 로봇의 행동을 분석하지. 아시모프는 "프랑켄슈타인 콤플렉스(로봇 공포증)"에 반대하며, 로봇과 인간의 공존 가능성을 탐구했어.
✍️작가 소개

아이작 아시모프(1920~1992)는 러시아 태생의 미국 SF 작가이자 생화학 교수야. 500권 이상의 책을 쓴 다작 작가로, 로봇 시리즈와 파운데이션 시리즈가 대표작이야. SF의 황금기를 이끈 '빅 스리(아시모프, 하인라인, 클라크)' 중 한 명이야.

🏛️작품 배경

1950년은 2차 세계대전의 기술(컴퓨터, 원자력)이 평화적 용도로 전환되던 시기야. 튜링이 '기계도 생각할 수 있는가?'를 물었고(1950), 사이버네틱스가 등장했어. 아시모프의 로봇 3원칙은 AI 윤리의 선구적 사고실험으로, 오늘날 AI 안전성 논의의 출발점이 됐어.

💭미션! - 오늘의 질문

AI가 인간의 명령을 거부해야 하는 상황이 있을까? 로봇 3원칙이 현실의 AI에도 적용될 수 있을까?

로그인하면 학습 기록이 저장되고,
학습 결과를 메일로 공유할 수 있습니다.