인공지능(AI)은 호주 어디에나 있다. 우리의 스마트폰, 게임, 심지어 아이들이 숙제를 할 때 사용하는 도구들에도 존재한다. 흥미롭고 창의적이며 강력하지만, 강력한 도구처럼 AI는 잘못 사용되었을 때 해를 끼칠 수도 있다고 NEWS.COM.AU에서 보도했다.
위험은 항상 명백하지 않으며, 특히 AI 기반 플랫폼과 상호작용하면서 그것이 어떻게 작동하는지, 어떤 위험이 도사리고 있는지 잘 모르는 아이들에게는 더욱 그렇다. 때로는 아이들이 AI가 배경에서 작동하고 있다는 사실조차 알지 못할 수도 있다.
사이버 보안 분야에서 수년간 일해온 사람으로서, 나는 AI가 어떻게 사이버 괴롭힘을 더욱 파괴적으로 만들고, 사기를 더 믿을 만하게 만들며, 허위 정보를 쉽게 퍼뜨리는지에 대해 잘 알고 있다. 어린이들은 특히 취약하지만, 우리는 그들이 이러한 도전들을 안전하게 헤쳐 나갈 수 있도록 도울 방법들이 있다.
위험 : 아이들이 알아야 할 것들
AI 자체는 나쁜 것이 아니지만, 그것이 사람들이 해를 끼치는 방식으로 사용되고 있다는 점이 문제다. 아이들이 배워야 할 첫 번째 교훈은 인터넷이 결코 잊지 않는다는 것이다. 모든 게시물, 사진, 댓글은 디지털 발자국을 남긴다. AI는 데이터에 의존하며, 아이들이 많이 공유할수록 그만큼 신원 도용이나 데이터 유출과 같은 위험에 더 노출된다.
피싱 사기를 예로 들어 보자. AI는 이제 매우 그럴듯한 가짜 이메일과 메시지를 만들어서, 수신자가 악성 링크를 클릭하거나 민감한 정보를 공유하도록 유도한다. 링크를 클릭하거나 메시지에 응답하는 것에 대해 별다른 의심을 갖지 않는 아이들은 특히 위험에 처할 수 있다.
AI는 취약한 사용자들에게 몇 가지 부정적인 면을 가지고 있다.
아이들에게는 한 가지 간단한 팁이 큰 차이를 만들 수 있다. “멈추고, 질문하고, 확인한 뒤 행동하라.” 만약 뭔가 이상하게 느껴진다면 – 예를 들어, ‘친구’가 돈을 요청하는 메시지나 ‘상품을 받을 수 있다’는 링크 – 아마 그것은 가짜일 가능성이 크다.
One Click Group의 CTO이자 전무이사인 네이선 커는, 또 다른 빠르게 발전하는 도구인 AI 챗봇이 자체적인 위험을 내포하고 있다고 지적했다. 이 시스템들은 종종 공감과 신뢰를 시뮬레이션하도록 설계되었기 때문에 취약한 사용자들에게 특히 위험하다.
“AI 챗봇은 기본적으로 ‘if’ 문들로 이루어진 시스템인데, 인간이 만든 데이터셋으로 학습된다”고 그는 말했다. “그들은 개발자들이 만든 만큼만 잘 작동한다. 그리고 그것이 문제다. 챗봇은 창조자의 강점과 결점을 모두 반영한다.”
아이들에게는 챗봇이 의도치 않게 해로운 조언을 하거나 감정을 조작하거나 심지어 위험한 행동을 부추길 수 있다는 점을 교육하는 것이 중요하다. 아이들은 챗봇을 다른 온라인 상호작용처럼 비판적으로 대해야 한다.
“AI의 문제는 직관이나 상식이 없다는 것이다. 패턴을 기반으로 답을 생성하기 때문에, 아이들은 챗봇의 조언을 맹목적으로 신뢰해서는 안 된다”고 커는 덧붙였다.
아이들은 온라인에 있는 모든 것이 진짜가 아닐 수 있음을 배우고, 자신이 만든 것이나 공유한 것들이 사라지지 않을 수 있음을 이해해야 한다. 우리는 아이들이 디지털 발자국을 관리하는 중요성을 이해하도록 돕고, 개인적인 정보(위치나 이름 등)를 과도하게 공유하지 않도록 하며, 클릭하고 게시하기 전에 비판적으로 생각하는 습관을 길러야 한다.
그 다음에는 딥페이크 문제가 있다. AI는 매우 사실적이지만 가짜 이미지를 만들 수 있다. 창의적으로 사용하면 재미있을 수 있지만, 이는 점점 더 해로운 목적으로 사용되고 있다. 그리고 안타깝게도 아이들이 이 파괴적이고 불법적인 활동에 참여하고 있다.
네이선 커는 아이들에게 챗봇을 비판적으로 대하는 것이 중요하다고 강조했다.
커는 “회의적인 태도가 AI가 현실을 조작할 수 있는 세상에서 최고의 방어책이다. 아이들에게 온라인에서 보는 모든 것을 질문하도록 가르쳐라. 이는 편집증이 아니라 스마트함에 관한 것이다”라고 강조했다.