[황성진의 '고대 사상가, AI를 만나다'] 한비자가 챗GPT를 쓴다면 절대 하지 않을 세 가지

이문규 munch@itdonga.com

[IT동아]

출처=황성진
출처=황성진

만약 한비자가 지금 시대에 태어났다면, 챗GPT를 싫어하진 않았을까?

아마 아닐 것 같다. 질문하면 즉시 답하고, 감정 없이 분석하며, 24시간 대기하는 존재. 중국 고대 철학자인 한비자(韓非子)가 신하에게 요구했던 조건과 꽤 닮았다. 오히려 하루 종일 챗GPT와 대화하며 전략을 다듬었을지도 모른다.

그런데 한비자라도 절대 하지 않았을 것도 있다. 요즘 우리가 너무 자연스럽게 하고 있는 것.

첫째, AI에게 결론을 맡기지 않았을 것이다.

한비자는 군주에게 '술(術)'을 강조했다. 신하의 말을 듣되, 최종 판단은 반드시 군주가 내려야 한다는 것이다. 아무리 뛰어난 참모라도 결정권까지 넘기면, 그 순간 주도권은 이동한다고 봤다.

이 말을 요즘 상황에 대입해보자.

"이직할까요?", "이 사업 될까요?", "어떤 선택이 나을까요?"… 사람들이 AI에게 인생의 방향을 묻는다. AI는 친절하게 답한다. 장단점을 분석하고, 확률을 계산하고, 심지어 "저라면 이렇게 하겠습니다"라고 말한다.

그리고 그 답을 그대로 따르는 사람이 늘고 있다. 편하다. 확실히 편하다. 고민의 무게를 덜 수 있으니까. 그런데 묘하게 찝찝하다. 왜일까.

내 인생의 결론을, ‘내가 내리지 않았기’ 때문이다.

AI는 좋은 대화 파트너가 될 수 있다. 선택지를 정리해주고, 생각의 범위를 넓혀줄 수 있다. 하지만 "그래서 뭘 할 건데?"라는 질문에는 내가 답해야 한다. 그 결론까지 AI에게 맡기는 순간, 삶의 주도권은 슬그머니 손에서 빠져나간다.

둘째, 질문 없이 맡기지 않았을 것이다.

한비자에게 '형명(刑名)'이라는 개념이 있다. 그의 저서 『한비자』에 나오는 이 개념은, 누군가 한 말(名)과 실제 결과(刑)가 맞는지 대조하는 것이다.

신하가 "이렇게 하겠습니다"라고 말했으면, 실제로 그리 했는지 확인한다. 말만 번지르르하고 결과가 따르지 않으면 신뢰할 수 없다고 봤다.

핵심은 '대조'다. 기준이 있어야 검증할 수 있다.

요즘은 어떤가. 누군가 만든 프롬프트를 복사해서 붙여넣는다. 결과가 나온다. 괜찮아 보이면 그대로 쓴다. 별로라면 다른 프롬프트를 찾는다.

질문이 없다. 내 의도도, 내 맥락도, 내 기준도 들어가지 않았다. 남의 질문으로 대화하면, 결과도 남의 기준이 된다. 그렇게 만들어진 결과물은 내 것 같지만 내 것이 아니다. 형명의 관점에서 보면, 내 질문 없이 받은 답은 검증할 기준조차 없는 셈이다. A I가 문제가 아니다. 질문을 포기한 인간이 문제다.

좋은 질문은 거창할 필요 없다. "내가 지금 뭘 알고 싶은 거지?" "이 결과를 어디에 쓸 건데?" 이 정도면 충분하다. 그 질문이 있어야, AI의 답을 내 기준으로 판단할 수 있다.

셋째, AI에게 책임을 전가하지 않았을 것이다.

한비자는 사람을 쉽게 믿지 않았다. 감정적 신뢰보다 구조적 점검을 중시했다. 그에게 참모란 믿음의 대상이 아니라, 검증의 대상이었다. 신하가 잘했으면 상을 주고, 못했으면 책임을 묻는다. 그런데 그 신하를 쓰기로 한 건 군주다. 결국 최종 책임은 군주에게 있다.

요즘 종종 듣는 말이 있다. "챗GPT가 그렇게 말했어요." 마치 면죄부처럼. AI가 그랬으니 내 책임은 아니라는 뉘앙스.

보고서에 잘못된 수치가 들어갔다. "AI가 알려준 건데요." 계약서 검토에서 빠진 조항이 있었다. "GPT한테 맡겼는데 못 잡았네요." 이런 상황이 점점 늘고 있다.

AI는 틀릴 수 있다. 아니, 자주 틀린다. 그건 AI의 한계다. 그런데 그 결과의 책임은 AI가 지지 않는다. AI는 사과하지 않는다. 보상하지 않는다. 책임질 수 없다. 언제나 인간 몫이다.

한비자라면 이렇게 물었을 것이다. "참모가 틀렸다고? 그 참모의 말을 따르기로 한 건 누구냐."

AI의 답을 쓰기로 결정한 건 나다. 그 결과도 내가 안는 거다.

출처=황성진
출처=황성진

그래서 우리에게 남는 질문

한비자도 물론 AI를 거부하지 않았을 것이다. 좋은 대화 상대는 언제나 환영하는 인물이었으니. 다만 절대 주도권을 넘기지는 않았을 것이다.

오늘 하루, 이 질문을 한번 던져보면 어떨까.

"나는 AI에게 답을 구하고 있는가, 아니면 결론까지 맡기고 있는가?" "이 결과가 틀렸을 때, 책임질 준비가 되어 있는가?"

AI는 답을 제안할 수 있다. 그러나 그 답을 어디에 쓸지, 어디까지 믿을지는 여전히 인간이 결정해야 한다.

생각을 대신해주는 존재가 아니라, 생각을 더 깊게 만들어주는 대화 파트너. AI를 그렇게 대할 때, 우리는 비로소 주도권을 잃지 않는다.

(주)비즈큐마스터 황성진 의장

'AI 최강작가'와 'AI 최강비서' 프로그램을 운영하며, AI를 활용한 콘텐츠 창작과 업무 자동화 솔루션을 제공한다. AI를 단순한 도구가 아닌 '생각을 확장하는 대화 파트너'로 활용하는 방법을 연구하고 전파 중. 서경대학교 'AI 퍼스널브랜딩' 비학위과정 주임교수 역임.

정리 / IT동아 이문규 기자 (munch@itdonga.com)

IT동아의 모든 콘텐츠(기사)는 Creative commons 저작자표시-비영리-변경금지 라이선스에 따라 이용할 수 있습니다.
의견은 IT동아(게임동아) 페이스북에서 덧글 또는 메신저로 남겨주세요.