ユーザーが不適切なメッセージを確認のために報告できるようにする
2023年6月5日月曜日
この記事は 5 月 25 日に英語版ブログに掲載された記事を翻訳したものです。
概要
Google Workspace の一部のお客様を対象に、管理者が Google Chat ユーザーのコンテンツ レポートを有効にすることができます。ユーザーがメッセージにフラグを付けると、管理者はセキュリティ調査ツールでそのインシデントに関する詳しい情報を見つけて、追加の対応が必要かどうかを判断できます。この機能はウェブ版とモバイル デバイスの Google Chat で利用できます。
管理者は 1 対 1 のメッセージ、グループ メッセージ、スペースのメッセージに対してコンテンツ レポートを有効にして、ユーザーが利用できる報告カテゴリ(ハラスメント、下品な行為、機密情報など)を選択できます。管理者は、レポート ダイアログ ボックスの文言をカスタマイズして、レポート提出後の次の手順をユーザーに伝えることもできます。
コンテンツ レポートを有効にすると、ユーザーに表示する報告カテゴリと、コンテンツ レポートで利用できる会話の種類を選択できます。
対象
管理者とエンドユーザー
今回の変更の意義
現代の職場において効果的なコラボレーションを行うには、ユーザーが心理的な安心感を得られることと、機密ビジネスデータが適切に保護されていることが必要になります。Google Chat のコンテンツ レポートを利用すると、ユーザーは不適切なメッセージを確認のために報告することができます。これには、攻撃的、差別的、露骨な表現を含むコンテンツや、共有されるべきでないセンシティブ データ(個人情報や専有情報)など、あらゆるメッセージが含まれます。これはお客様にとって重要な機能です。特に大企業や規制の厳しい業界のお客様が組織内での不審な行為や Chat の不適切な使用を常に把握するために必要です。
さらに、管理者はセキュリティ調査ツールを使用して、今後、同様のメッセージが共有されることを未然に予防するためのデータ保護ルールを作成する必要があるかどうかを判断できます。
最近行われた更新(管理コンソールで Google Chat のスペースを管理するなど)と併せて、この機能を組織全体での Chat の管理にお役立ていただけると幸いです。
ご利用にあたって
- 管理者: この機能はデフォルトで無効になりますが、ドメイン単位または組織部門単位で有効にすることができます。詳しくは、ヘルプセンターで Chat のコンテンツ レポートの管理、セキュリティ調査ツールを使用して Chat メッセージを調査する方法、Chat からのデータ漏洩を防止する方法についての記事をご覧ください。
- エンドユーザー: この機能の有効化は、管理者が行う必要があります。詳しくは、ヘルプセンターで Google Chat でメッセージを報告するをご覧ください。
ウェブでメッセージを報告する
モバイル デバイスでメッセージを報告する
リリース スケジュール
- 即時リリース / 計画的リリースを利用しているドメイン: 2023 年 5 月 25 日以降、段階的に展開(機能が表示され、ご利用いただけるようになるまでには最長で 15 日かかります)
対象
- Google Workspace Enterprise Plus、Education Standard、Education Plus をご利用のお客様