3가지 주요 내용
- 인공지능은 학생들에게 단순한 학업적 지름길을 넘어 감정적 해소 수단이 되었습니다. 421,000%의 학생들이 감정적 지원을 위해 AI 챗봇을 사용한다고 보고했으며, 401,000%의 학생들이 방과 후 감독이 없는 시간에 위험한 온라인 활동에 참여하고 있습니다. 부정행위에만 초점을 맞추는 교육구는 더 큰 차원의 안전 문제를 간과하고 있습니다.
- AI를 차단한다고 해서 보호가 보장되는 것은 아닙니다. 대부분의 생성형 AI를 차단하는 지역에서조차 Lightspeed Systems의 데이터는 130개 이상의 AI 관련 영역에서 고위험 안전 경고를 생성하는 활동이 있음을 보여줍니다. 허용된 사항뿐 아니라 실제로 무슨 일이 일어나고 있는지 파악하는 것이 진정한 거버넌스를 위한 기본 요건입니다.
- 효과적인 AI 거버넌스를 위해서는 세 가지 요소가 함께 작동해야 합니다. 가시성, 제어 및 보호. Lightspeed Filter™, Lightspeed Insight™, Lightspeed Alert™ 및 Lightspeed Classroom™은 즉각적인 상황 포착 및 앱 사용 보고부터 실시간 안전 보고 및 교실 모니터링에 이르기까지 이 세 가지 계층을 단일 플랫폼에서 모두 지원합니다.
누구도 초대장을 보내지 않았습니다. 하지만 인공지능은 에세이, 미술 프로젝트, 숙제, 심지어 학교와는 전혀 상관없는 대화에까지 나타났습니다. 학생들은 챗봇에게 "절망감을 어떻게 떨쳐낼 수 있을까요?", "친구가 죽고 싶어 하면 어떻게 해야 할까요?", "괴롭힘에 어떻게 맞설 수 있을까요?"와 같은 질문을 던집니다. 이러한 질문들은 학업적인 질문이 아닙니다. 마치 상담 선생님에게 하는 이야기 같죠. 그런데 점점 더, 잠들지 않고, 판단하지 않고, 항상 곁에 있는 기계에게 이런 질문을 하게 되는 겁니다.
그 변화는 매우 중요합니다. 그리고 만약 여러분의 교육청이 여전히 AI를 부정행위 문제로만 여긴다면, 문제의 일부분만 보고 있는 것입니다.
데이터는 단순한 학업 부정행위 이상의 의미를 담고 있다
네, 학문적 진실성은 분명히 우려스러운 문제입니다. 하지만 연구 결과가 보여주는 바는 무시하기 어렵습니다. 민주주의와 기술 센터의 '핸드인핸드' 보고서에 따르면, 인공지능을 사용하는 학생 중 절반은 인공지능 때문에 교사와의 유대감이 약해졌다고 답했습니다. 절반 이상은 극단적이거나 급진적인 콘텐츠를 접한 경험이 있으며, 3분의 1 이상은 학교 구성원이 연루된 딥페이크 영상에 대해 알고 있다고 밝혔습니다.
421,000명의 학생들이 감정적 지원을 위해 AI 챗봇을 사용했다고 답했습니다. 이는 학생들의 학습 방식뿐만 아니라 정체성과 관계 형성 방식까지 변화시키고 있습니다. 그리고 안전장치가 제대로 작동하지 않을 때, 그 결과는 학교에 고스란히 전가됩니다.
교실 밖의 데이터도 이를 뒷받침합니다. 자살을 시도하는 십대 청소년의 절반은 아무도 없는 늦은 밤에 시도합니다. 위험한 온라인 활동의 401, 170%가 방과 후에 발생합니다. 학생들은 교사나 상담사, 부모가 아닌 기술에 의존하여 도움을 구하고 있습니다. 이러한 상황을 제대로 파악하지 못하면 교육청은 앞으로 닥칠 일을 예측할 수 없습니다.
차단은 보호와는 다릅니다
이번 주 기준으로 약 85만 1천 7백 퍼센트의 학교가 여전히 대부분의 학생들에게 생성형 AI 사용을 대부분 차단하고 있습니다. 이는 안전장치처럼 보이지만, 실제로는 문을 완전히 닫는 것은 아닙니다.
Lightspeed Systems를 사용하는 여러 교육구에서, AI 관련 활동으로 인해 높은 위험도 및 임박한 위험도의 안전 경고가 130개 이상의 영역에서 발생하는 것을 확인했습니다. 심지어 AI를 완전히 차단했다고 생각하는 교육구에서도 이러한 경고가 발생했습니다. 이러한 경고의 상당수는 관계형 상호작용을 위해 특별히 설계된 캐릭터 AI와 같은 도구에서 비롯됩니다. 학생들은 어떻게든 접근 방법을 찾아냅니다. 차단은 임시방편일 뿐이며, 진정으로 필요한 것은 가시성, 맥락 파악, 그리고 통제입니다.
저희 최고 AI 책임자인 도널 맥마흔의 말처럼, 학교가 상황을 제대로 파악하지 못하면 위험을 관리할 수 없고, 그저 사후 대응만 할 수밖에 없습니다. 우리가 바꿔야 할 것은 바로 사후 대응에서 사전 대비로의 전환입니다.
진정한 AI 거버넌스의 세 가지 핵심 요소
AI 거버넌스와 관련하여 모든 교육구에 필요한 세 가지는 가시성, 제어 및 보호입니다. K-12 교육 환경에서 Lightspeed만큼 이 세 가지를 완벽하게 충족하는 플랫폼은 없습니다.
- 시계: 어떤 AI 앱이 어떤 학생들이 어떤 캠퍼스에서 사용되고 있는지 확인하고, 실제로 안내 메시지를 읽어보세요.
- 제어: 정책에 필요한 세분화 수준에 따라 특정 도구 및 범주를 차단하거나 허용할 수 있습니다.
- 보호: ChatGPT, Gemini 또는 다른 AI 소스에서 학생들이 우려스러운 발언을 할 경우 실시간 안전 알림을 받으세요.
실제로 어떻게 나타날까요?
라이트스피드 인사이트™ 이 도구는 해당 지역의 AI 활동에 대한 완벽한 지도를 제공합니다. 단순히 눈에 띄는 도구뿐만 아니라 140개 이상의 잠재적 AI 앱을 보여주고, 캠퍼스 및 학년별 사용 현황을 제공하며, 앱 개인정보 보호 정책 변경 사항을 자동으로 알려줍니다. 정책 문서를 수동으로 비교하는 대신, 텍스트 추가, 삭제, 약관 변경 등 변경 사항이 발생하면 명확한 알림을 받을 수 있습니다. 이를 통해 해당 공급업체를 여전히 신뢰할 수 있는지 즉시 확인할 수 있습니다.
프롬프트 캡처 기능은 한 단계 더 나아갑니다. 내장되어 있습니다. Lightspeed 필터™, 이를 통해 학생들이 ChatGPT, Gemini, Copilot과 실제로 나누는 대화를 확인할 수 있습니다. 어떤 도구를 사용하는지뿐만 아니라 무엇을 묻는지, 대화가 어떻게 전개되는지까지 알 수 있죠. 이러한 맥락이 중요합니다. 단순한 질문이라도 다음에 이어지는 내용을 보면 그 의미가 달라질 수 있습니다.
안전 측면에서 보면, Lightspeed Alert™ AI 대화에서 위험도가 높은 표현을 감지하여 관련 담당자에게 신속하게 전달합니다. 예를 들어, 학생이 자해 충동을 느끼고 있다는 표현을 사용하면, 해당 학생을 아는 상담사, 사이트 관리자 등에게 상황 맥락과 함께 즉시 신호가 전달됩니다. 추가 정보를 수집하거나 지연될 염려가 없습니다. 목표는 학생이 너무 늦기 전에 필요한 도움을 받을 수 있도록 하는 것입니다.
선생님들께, Lightspeed Classroom™ 수업 중 학생들이 AI 사이트에 접속할 때마다 학생 화면 타일에 간단한 시각적 표시(작은 보라색 반짝임)가 나타납니다. 교사는 따로 검색할 필요 없이 화면을 훑어보고 표시를 확인한 후 즉시 대응하거나 수업 후 기록을 검토할 수 있습니다. 시험에도 유용합니다. 학생이 과제를 제출했는데 Classroom에 ChatGPT에 접속한 것으로 표시된다면, 해당 학생과 대화를 나눠볼 가치가 있습니다.
또한, 지역 차원의 제어를 위해 Filter의 AI 카테고리 관리 기능을 사용하면 생성형 AI, 탐지형 AI, 일반 AI 범주를 독립적으로 설정하고 특정 도구에 대한 예외를 지정할 수 있습니다. 특정 학년에 대해서는 Gemini를 제외한 모든 도구를 차단하거나, 교직원에게는 승인된 도구를 허용하면서 학생에게는 더 엄격한 제한을 둘 수도 있습니다. 이러한 유연성을 통해 새로운 허점을 만들지 않고도 정책을 준수할 수 있습니다.
반응에서 준비태세로
인공지능은 사라지지 않을 것입니다. 이는 이제 더 이상 논쟁의 여지가 없는 사실입니다. 여전히 논쟁의 여지가 있는 것은 학교가 어떻게 대응하느냐입니다. 문제가 발생하기 전에 대응해야 할까요, 아니면 문제가 발생한 후에 대응해야 할까요?.
이러한 노력을 성공적으로 수행한 교육구들은 모든 것을 차단한 곳이 아닙니다. 오히려 가시성을 확보하기 위한 체계를 구축하고, 적절한 알림 시스템을 마련하고, 교사들이 교실 상황을 파악할 수 있도록 지원하며, 이상 징후가 나타날 때 즉시 조치를 취할 수 있는 절차를 마련한 곳입니다. SMART AI 프레임워크는 바로 이러한 목표를 달성하기 위해 설계되었습니다. SMART는 Safe(안전한), Managed(관리되는), Appropriate(적절한), Reported(보고된), Transparent(투명한)의 약자입니다.
해당 제도가 귀하의 지역에서 어떻게 운영되는지 알고 싶으시다면 저희 웹사이트를 방문해 주세요. 스마트 AI 페이지 SMART AI에 대해 자세히 알아보고 AI 준비도 평가를 받아보세요.
자주 묻는 질문
Lightspeed의 모니터링 기능은 Claude와 같은 다른 AI 도구도 지원하나요?
기능에 따라 다릅니다. Lightspeed Classroom™은 학생들이 브라우저에서 Claude 및 기타 AI 도구에 접속할 때 해당 도구의 활동을 이미 표시합니다. Lightspeed Alert™는 웹에서 Claude 대화에 부적절한 언어가 포함될 경우 이를 감지하고 안전 경고를 상위 담당자에게 알릴 수 있습니다. 현재 확장 중인 기능은 Lightspeed Filter™의 AI 프롬프트 캡처 기능으로, ChatGPT, Gemini 및 Copilot에서 전체 대화를 캡처하는 새로운 기능입니다. Claude 및 Magic School AI와 같은 다른 도구들도 로드맵에 포함되어 있으며, 추가 기능은 교육청의 요청에 따라 개발될 가능성이 높습니다. 교육청에서 필요한 특정 도구가 있다면 Lightspeed 담당자에게 문의해 보시기 바랍니다.
학교 또는 학년별 AI 사용 현황을 확인할 수 있나요?
네. Lightspeed Insight™는 사용 중인 각 AI 애플리케이션에 대한 캠퍼스별 및 학년별 사용 데이터를 제공합니다. 따라서 ChatGPT 사용이 고등학교에 집중되어 있거나 특정 캠퍼스에서 생성형 AI 활동이 급증하는 것을 확인할 수 있으며, 이러한 데이터를 활용하여 이사회, 학부모 또는 교직원과 정책 논의를 진행할 수 있습니다.
학생이 AI 사이트에 접속한 후 교사가 알아차리기 전에 빠르게 다른 사이트로 이동했을 경우, 해당 활동은 여전히 기록에 남을까요?
네. Lightspeed Classroom™은 수업 시간별 인터넷 사용 기록을 보관하며, 인공적인 활동으로 표시된 사이트에는 학생이 다른 사이트로 이동한 후에도 보라색 AI 표시기가 계속 표시됩니다. 교사는 수업 후 전체 활동 기록을 검토하여 학생들이 언제 어떤 사이트에 접속했는지 실시간으로 확인할 필요 없이 정확하게 파악할 수 있습니다.