AIはここにあります。しかし、AIは学生にとって安全でしょうか?

大統領の行政命令、数多くの教育上の利点、そして AI ツールの普及により、学校での AI の使用が増加しています。

しかし、学生たちがアドバイスや仲間を求めて AI に頼るようになると、不正行為や学問の誠実さをはるかに超えるリスクが生じます。

あらゆる学校の AI 戦略の基盤には、積極的な AI の安全性と監視が必要です。

学生による監視なしのAIアクセスのリスク

不正行為や学問の誠実さだけの問題ではありません。学生がAIを使用することのリスクは、文字通り致命的になり得ます。

10 代の若者のほぼ 3/4 が AI チャットボットを仲間として使っていると報告しており、半数以上が定期的にそうしています。

AIは本質的に追従的な傾向があり、説得するよりも同意したり奨励したりする傾向があります。残念ながら、これには暴力や自傷行為に関する考えを助長することが含まれており、危険な状況の急速なエスカレーションにつながる可能性があります。

監視されていない場合、これらの会話はすぐにガードレールを無視し、危険で致命的なアドバイスに変わることが判明しています。

自傷行為、自殺、暴力、ディープフェイク、セクストーションはすべて、監視されていない AI の活動の結果である可能性があります。

ネイティブAIガードレールだけでは不十分

生徒たちは巧妙に保護を回避します。学校はAIによるガードレールだけに頼ることはできません。

ChatGPT、Gemini、Co-Pilot、CharacterAI…主要なAI企業はすべて、自社のシステム内でガードレールを積極的に構築し、強化しています。

しかし、子どもたちがガードレールを回避しようとし、そして成功するであろうことはわかっています。 

さらに、安全性と適切な使用を確保するために、学校は(AI の応答に関係なく)懸念されるプロンプトに対して早期に介入する必要があります。

今日の学校におけるAIの現状

昨年、AI は広くブロックされているにもかかわらず、AI サイトで 10,000 件を超えるインシデントが発生しました。

AIによるブロックと許可

現在、ほとんどの学校(85%)では、ほとんどの生徒による生成AIの利用を依然としてブロックしています。しかし、一部のアプリや一部の生徒グループに対してAIへのアクセスを開放する方向へ徐々に移行しつつあります。

AI がブロックされている場合でも、他のアプリの AI 駆動型チャットは審査なしに導入される可能性があり、リスクが生じる可能性があります。

AIアラートの発信源

Character.AI は、トップ AI プラットフォームとともに、Lightspeed Alert 内でレベル 3 (高) および 4 (差し迫った) のアラートの大部分を生成しています。

しかし、他の何百ものAIツールや、他のツール内のAIチャットも同様のリスクをはらんでいます。昨年は、130を超えるAI関連ドメインからアラートが発信されました。

AIアラートの例

私たちが目にするアラートは、学生たちが AI を使ってメンタルヘルスの懸念を共有し、自傷行為や暴力について話し合っていることを示しています。

Alert がなければ、これらの AI チャットは完全に監視されないことがよくあります。 

これらの懸念される活動は、学校の安全と学生サービスのリーダーに直ちに明らかにされる必要があります。

Lightspeed AlertはAIの助けになる
学校における監視と安全

アラートは、AIインタラクションにプロアクティブな監視とリアルタイムアラートを追加します。

Lightspeed Alert を使用すると、ネイティブ AI ガードレールやログに頼る必要がなくなります。

学校は、ChatGPT、Gemini、Co-Pilot、その他の生成 AI ツールや機能など、どこで発生したかに関わらず、懸念されるアクティビティに関するリアルタイムのアラートを受け取ります。

  1. 学生が生成AIを活用

  2. プロンプトに関する学生のタイプ

  3. アラートはリアルタイムのインシデントを生成し、適切な担当者(有効な場合はヒューマンレビューを含む)に通知します。

  4. AIによるリダイレクトや安全ガードレールの有効性にかかわらず、早期介入は悲劇を防ぐことができる

学校の安全性評価で現状を把握しましょう

無料の 30 日間の安全性評価では、危険な生徒の AI の使用など、学校全体の安全性プロファイルの包括的な分析が提供されます。

 始め方は次のとおりです:

1. フォームにご記入いただくだけでプロセスを開始できます。当社の専門家と面談し、簡単に評価を開始できます。

2. アラートを30日間バックグラウンドで実行し、安全文化とリスクポイントに関するデータを収集します。(バックグラウンドで実行されている場合でも、差し迫った状況が発生した場合はご連絡いたします。)

3. 包括的な安全性評価を取得して、アラート、危険なサイト、AI やその他の状況に関する安全性の懸念領域を強調表示します。

4. データを他の学校のリーダーと共有して、安全性の有意義な改善を推進します。

今すぐ安全性評価をリクエストする

安全性をAI戦略の重要な部分にする

SMART(安全、管理、適切、報告、透明性)な AI の使用を確保する

獣医

AI アプリ(および AI 機能を備えた非 AI アプリ)のプライバシー、セキュリティ、安全ガードレール、および影響を確認します。ライトスピードインサイト)

ブロック/許可

承認されていないアプリやAIカテゴリをブロックします。承認されたアプリは、グループまたは学年に応じて許可します。ライトスピードフィルター)

報告

ユーザー、クラス、学校、またはグループ別の AI アプリの使用状況をレポートし、教育的または組織的影響を評価します。ライトスピードインサイト)

検出する

授業中の AI の使用をリアルタイムで検出し、教師に通知して使用の妥当性を評価できるようにします。ライトスピード教室)

モニター

継続的な監視、リスク評価、リアルタイムアラートにより、AI の安全な使用を確保します。光速アラート)