AI 챗봇이 사람들의 '생각하는 능력'을 저해할까?
마지막으로 AI 챗봇에 무엇을 부탁했나?
어려운 질문에 답하기 위한 에세이 구조를 짜 달라고 했을 수도 있고, 방대한 데이터 세트를 분석해 통찰을 얻거나 자기소개서가 채용 공고와 잘 맞는지 확인해 달라고 했을 수도 있다.
일부 전문가들은 이런 종류의 작업을 인공지능(AI)에 맡기면 뇌가 덜 작동하게 되고, 비판적 사고와 문제 해결 능력까지 해칠 수 있다고 우려한다.
올해 초 미국 매사추세츠공과대학(MIT)은 챗GPT를 이용해 에세이를 작성한 사람들이 해당 과제를 수행하는 동안 인지 처리와 관련된 뇌 네트워크의 활동이 더 적게 나타났다는 연구 결과를 발표했다.
이들은 AI 챗봇을 사용하지 않은 참가자들에 비해 자신이 쓴 에세이의 내용을 인용하는 데도 더 어려움을 겪었다.
연구진은 이번 연구가 "학습 능력이 감소할 가능성을 탐구해야 하는 시급한 문제"를 보여준다고 밝혔다.
연구에는 MIT와 인근 대학에서 모집한 54명이 참여했다. 이들의 뇌 활동은 두피에 전극을 부착하는 뇌파 검사(EEG)를 통해 측정됐다.
참가자들이 사용한 프롬프트(명령어)에는 에세이 질문 요약, 자료 출처 찾기, 문법과 문체 다듬기 등이 포함됐다.
아이디어를 생성하고 정리하는 데도 AI가 활용됐지만, 일부 이용자들은 이 부분에서는 AI가 그다지 뛰어나지 않다고 느꼈다.
'AI로는 답을 너무 쉽게 찾을 수 있다'
이와 별개로 카네기멜론대, 그리고 코파일럿을 운영하는 마이크로소프트는 사람들이 AI에 지나치게 의존할 때 문제 해결 능력이 약화할 수 있다는 연구 결과를 내놨다.
연구진은 주 1회 이상 업무에 AI 도구를 사용하는 화이트칼라 노동자 319명을 대상으로, AI를 사용할 때 비판적 사고를 어떻게 적용하는지 설문 조사했다.
또한 새로운 통찰을 얻기 위한 데이터 분석부터 작업물이 특정 규칙을 충족하는지 확인하기까지, AI에 주어진 900건의 작업 사례를 분석했다.
그 결과, AI가 특정 작업을 잘 수행할 것이라는 신뢰도가 높을수록 "비판적 사고에 들이는 노력이 줄어드는" 경향이 나타났다.
연구는 "생성형 AI는 업무 효율을 높일 수 있지만, 일에 대한 비판적 관여를 저해하고 장기적으로는 AI에 과도하게 의존하게 만들어 독립적인 문제 해결 능력을 약화할 수 있다"고 지적했다.
영국에서도 비슷한 연구가 있었다. 옥스퍼드대 출판부(OUP)가 지난 10월 발표한 바에 따르면, 학생 10명 중 6명은 AI가 학교 과제 수행 능력에 부정적인 영향을 미쳤다고 느꼈다.
AI 사용량이 폭발적으로 증가하면서 우리의 인지 능력은 정말로 쇠퇴 위기에 놓인 것일까?
OUP의 생성형AI 전문가이자 이번 학생 설문 연구에 참여한 알렉산드라 토메스쿠 박사는 반드시 그렇지는 않다고 말한다.
"우리 연구에 따르면 학생 10명 중 9명은 AI가 문제 해결, 창의성, 검토 등 학업과 관련된 최소 한 가지 능력을 개발하는 데 도움이 됐다고 답했습니다."
"하지만 동시에 (설문 참여자의) 약 4분의 1은 AI를 사용함으로써 과제 해결이 너무 쉬워졌다고 답했습니다…상당히 미묘한 상황이라고 볼 수 있죠."
그는 또 많은 학생이 더 자세한 AI 활용 지침을 원하고 있다고 말했다.
샘 올트먼 최고경영자(CEO)에 따르면 주간 활성 이용자가 8억 명이 넘는 챗GPT의 경우 학생들이 기술을 최대한 활용할 수 있도록 설계된 100개의 프롬프트를 공개했다.
그러나 유니버시티 칼리지 런던(UCL)에서 인공지능과 교육 관련 비판적 연구를 하는 웨인 홈스 교수는 이것만으로는 부족하다고 말한다.
그는 학생과 학습자들에게 AI 도구 사용을 장려하기 전에, 이러한 도구가 학습에 미치는 영향에 대한 훨씬 더 많은 학술 연구가 필요하다고 주장한다.
홈스 교수는 "현재 교육 분야에서 이러한 도구의 효용성이나 안전성, 나아가 긍정적 효과와 관련한 대규모 독립적 증거는 존재하지 않는다"라고 말했다.
'성적'은 좋아지지만 '학습'은 저해된다?
홈스 교수는 AI 사용 이후 개인의 능력과 기술이 더 떨어지는 '인지 위축(cognitive atrophy)' 관련 연구에 주목했다.
그는 AI를 활용해 엑스레이를 판독하는 방사선 전문의들 사이에서 이미 이런 문제가 나타났다고 말한다.
지난해 하버드 의대가 발표한 연구에 따르면, 일부 임상의는 AI를 보조 수단으로 활용함으로써 성과가 개선됐지만, 다른 이들의 경우 명확히 규명되지 않은 원인으로 인해 성과가 떨어졌다.
연구진은 인간과 AI의 상호작용 방식에 관한 추가 연구가 필요하며, 이를 통해 AI가 "인간의 성과를 해치기보다 향상하는" 사용법을 찾아야 한다고 강조했다.
홈스 교수는 학교든 대학이든 학생들이 AI에 지나치게 의존해 과제를 처리하면서, 교육이 제공해야 할 기초 역량을 충분히 기르지 못할 수 있다고 우려한다.
AI의 도움으로 에세이 성적은 더 좋아질 수 있지만, 정작 학생이 이해하는 내용은 줄어들 수 있다는 것이다.
그의 표현대로라면 "결과물은 더 좋아지지만, 실제 학습은 더 저해되는" 상황이다.
챗GPT를 보유한 오픈AI에서 국제 교육을 총괄하며 옥스퍼드대와의 협약을 이끈 제이나 데바니는 회사도 "이 논쟁을 제대로 인지하고 있다"고 밝혔다.
그는 BBC에 "학생들이 챗GPT를 사용해 과제를 외주화해서는 안 된다고 분명히 생각한다"고 말했다.
그의 견해로는, 챗GPT는 단순한 답변 제공자가 아니라 가정교사로 활용하는 것이 가장 바람직하다.
예를 들어 '스터디 모드'를 활용해 학생이 답을 찾기 어려워하는 질문을 입력하면, 챗봇이 문제를 구성 요소로 나누고 이해를 돕는 방식이다.
그는 이해가 완전하지 않은 주제로 밤늦게 과제를 해야 하는 학생의 사례를 들었다.
"발표를 앞두고 있는데 이미 자정이라면, (대학) 강사에게 이메일을 보내 도움을 요청하기는 어렵다"며 "챗GPT 활용 시 목표를 분명히 한다면 학습을 가속할 잠재력이 분명히 존재한다고 생각한다"고 말했다.
그러나 홈스 교수는 AI 도구를 사용하는 학생이라면, AI의 추론 방식과 이를 제공하는 기업들이 데이터를 어떻게 다루는지 반드시 인지해야 하며, 결과는 항상 검증해야 한다고 강조한다.
그는 AI의 광범위한 능력과 영향을 고려할 때 이를 단순히 "최신형 계산기"쯤으로 볼 수 없다고 말한다.
"저는 학생들에게 AI를 쓰지 말라고는 절대 말하지 않습니다…하지만 우리가 이 모든 다양한 것들에 대해 이해해야만, 스스로 정보에 근거한 결정을 내릴 수 있다고 말하려고 하죠."