Page 61 - 월간HRD 2023년 12월호
P. 61
AI와의 공존 현실화 챗GPT는 일터에서 사람의 손이 많이 필 AI를 활용해서 내리는 선택의 결과에 책
요했던 것들을 대체해주고 있다. 많은 임질 수 있다. 책임 소재가 AI에 있다면
챗GPT 자료를 수집하고, 그것을 정리하고, 발 사회적으로 혼란이 가중될 것이다. 또
한, 생성형 AI는 지금도 꾸준히 데이터
표한 내용을 어떻게 표현할지 정했을 때
이후 작업을 해결해주는 일 등이 그것이 를 학습하고 있는 만큼 사람의 윤리의식
다. 그렇기에 규모, 국적, 비즈니스를 막 이 올바르지 못하면 생성형 AI도 마찬가
론하고 많은 기업이 생성형 AI에 각별한 지일 것이다.
관심을 기울이고 있다. 자체 생성형 AI 셋째, 일을 위한 일을 줄이겠다는 태도
를 만드는 기업들도 많다. 다. 이제 단순하고 반복적인 일은 AI에
챗GPT는 HRD 분야에서도 큰 이슈다. 맡기면 된다. 따라서 사람은 일터에서든
교육과 학습 패러다임을 바꾸고 있기 때 삶터에서든 카테고리를 설정해서 자신
문이다. 모르는 것이 있으면 교수자, 동 을 둘러싼 수많은 일을 구분할 줄 알아
료, 선배가 아닌 챗GPT에 질문해서 답 야 하며 이후 테크놀로지를 활용해서 생
을 얻는 모습을 떠올리면 된다. 물론 챗 산성을 높여야 한다. 이런 경우 손이 부
GPT는 여전히 저작권 문제에서 자유롭 족해서 미뤄왔던 일들도 찾아내서 해결
지 않고, 잘못된 정보를 제공해주기도 하며 변화를 도모할 수 있다.
하지만 분명 AI와 공존하는 일터가 현 넷째, 성찰하고 비판하며 지혜를 발휘하
실로 다가왔음을 시사한다. 이때 안성진 는 자세다. 챗GPT가 편견이 있고, 거짓
성균관대학교 컴퓨터교육과 교수, 김민 말을 잘한다고 평가받는 이유는 사람도
정 단국대학교 교직교육과 교수, 차경진 그렇기 때문이다. 유튜브와 각종 포털사
한양대학교 경영대학 교수, 김지현 SK 이트에 넘치는 가짜 뉴스를 생각하면 된
경영경제연구소 부사장의 제언을 정리 다. 따라서 평소에도 특정 정보, 지식,
해보면 네 가지를 고려해야 한다. 기술 등을 곧이곧대로 받아들이지 않고
첫째, 통찰력에 기반한 질문이다. 일과 다각도로 살펴보며 올바로 활용하는 습
삶에서 어떤 문제들이 발생하고 있는지 관을 들여야 한다.
정확히 이해하고, 자신이 해낼 수 있는 세상에 존재하는 많은 도구는 사람이 만
부분과 테크놀로지의 지원을 받아야 하 들었고, 사람은 그것을 여기저기 활용하
는 부분을 구분한 뒤 후자를 질문으로 면서 더욱 높은 수준의 역량을 갖출 수
표현하는 능력을 말한다. 쉽게 말해 챗 있었다. 챗GPT도 다르지 않다. 누구든
GPT와 대화하는 능력이다. 이는 AI에게 AI의 도움을 받을 수 있다면 그것을 더
정확한 명령을 내리는 프롬프트 엔지니 욱 빠르고, 효과적으로, 정확하게 활용
어링이 강조되고 있는 것과 맥이 같다. 하는 인재가 중요해질 것이다. 즉 HRD
둘째, 올바른 AI 윤리와 철학이다. AI는 담당자들은 이런 인재를 육성하기 위한
사람이 통제할 수 있어야 한다. 그래야 로드맵을 수립해야 한다.
DECEMBER HRD 59