신철호 | OGQ 대표, 연세대학교 정치외교학과 겸임교수

AI는 의도를 읽지 못한다. 인간이 아무리 명확한 목표를 마음속에 품고 있어도 그것이 정확한 문장으로 표현되지 않으면 AI는 전혀 다른 방향으로 추론을 시작한다. 거대언어모델(LLM)은 마음을 읽지 않는다. 감정도 의도도 해석하지 않는다. 오직 주어진 문장 속에서만 의미를 구성한다. 우리가 흔히 겪는 AI의 오류는 대부분 사용자의 의도와 입력 텍스트가 불일치할 때 발생한다. 의도와 표현의 간극이 곧 오차의 시작점이다. 정책, 기획, 법률처럼 한 단어의 모호함이 전체 결론을 흔드는 분야에서는 프롬프트가 사실상 ‘요구사항 명세서’의 역할을 하게 된다.
AI 리터러시는 결국 설계 능력이다. AI에게 무엇을 우선시할지, 무엇을 금지할지, 어떤 기준을 지켜야 하는지를 알려주지 않으면 AI는 스스로 판단을 구성한다. 그 순간 답은 불안정해진다. “추측 금지”, “사실 기반”, “우선순위 A→B→C”, “근거 제시”와 같은 규칙을 명시해야 한다. 애매한 문장 하나가 결론 전체를 왜곡하는 경험은 누구나 한 번쯤 겪었을 것이다. AI 시대의 문해력은 정확한 문장력, 구체적 요구사항, 예외조건 제시라는 세 가지 요소 위에 세워진다. 이것은 더 이상 글쓰기 기술이 아니라 문제 정의의 능력이다.
AI와 인간의 협업에서 가장 중요한 능력은 ‘충돌 지점’을 감지하는 것이다. AI는 어느 순간 다른 전제를 따라가기 시작하고, 우리가 이를 늦게 알아차릴수록 오류는 커진다. 의미 해석이 엇나갔는지, 조건이 누락됐는지, 모델이 과잉추론을 시작했는지, 이전 맥락을 놓쳤는지를 감지하는 순간이 바로 AI 리터러시의 핵심이다. 이 능력은 교육, 의료, 기업 업무, 창작 전 영역에서 새로운 형태의 메타 인지로 작동하게 된다.
AI를 잘 다루는 사람은 대개 이 ‘전제 충돌’을 직감적으로 빠르게 찾아낸다.
왜 이것이 새로운 지적 문해력인가. AI의 편향과 오류, 과잉확신은 결국 인간의 질문 구조에 의해 제어된다. 프롬프트는 요청이 아니라 일종의 설계도다. 또한 AI 협업의 절반은 ‘요구사항 명세’로 이뤄진다. 팀에서 기획자와 개발자가 사양서를 주고받듯, AI와의 협업도 결국 언어 기반의 설계 과정이다. 따라서 언어 능력은 코딩 능력보다 우위의 도구가 된다. 사고의 구조화 능력은 그대로 결과물의 품질을 결정한다. 정확한 사고가 정확한 문장을 만들고, 정확한 문장이 정확한 결과를 만든다.
AI를 능숙하게 다루는 사람들은 공통된 특징이 있다. 표현 오류를 즉시 포착하고, 조건을 명확히 정리하며, AI가 잘못된 방향으로 가면 흐름을 재설정한다. 날짜, 개념, 지명 같은 작은 오류도 즉각 수정하고, “오류다. 다시 설명하라”와 같은 메타 명령을 자연스럽게 사용한다. 이런 능력은 앞으로 기획자, 연구자, 정책 담당자, 창업가, 국가 리더에게 필수적이 될 상위 1%의 역량이다.
AI 리터러시는 크게 네 가지 축으로 체계화될 수 있다. 목적과 범위를 정의하고 금지 조건을 설정하는 요구 명세 능력, 비논리적 결론을 탐색하고 과잉추론을 식별하는 오류 감지 능력, 사실 기반 및 불확실 시 답변 유보 등 규칙을 재강제하는 통제 능력, 그리고 AI가 왜 틀렸는지 분석하고 프롬프트 구조를 재설계하는 메타 대화 능력이다. 이 네 가지는 조직의 팀 역량 평가, 국가 디지털 정책, 학교 교육의 핵심 축으로 재편될 것이다.
AI는 인간의 의도를 이해하지 못한다. 그렇기에 정확한 사고를 정확한 문장으로 바꾸는 능력이 새로운 역량이 된다. 프롬프트 문해력은 사고의 정밀도이며, 인간과 AI 충돌 지점을 감지하는 능력은 새로운 형태의 지적 민첩성이다. 이 능력을 갖춘 사람은 AI 시대에 압도적인 생산성을 갖는다. AI는 인간을 대체하는 기술이 아니라, 정확한 사고를 가지고 AI도구를 잘 활용하는 사람에게 비약적인 확장성을 부여하는 기술이다. 그리고 바로 그 지점에서 AI 리터러시는 우리 사회의 새로운 문해력 기준이 될 것이다.
신철호
OGQ 대표. 연세대학교 정치외교학과 겸임교수. AI, 데이터, 플랫폼 등 분야에서 활동하고 있다




