拒否可能、不適切、または違法なコンテンツは、組織のリスクを引き起こします。 たとえば、以下のとおりです。

  • ポルノコンテンツを職場に持ち込むと、会社はセクハラ被害を受けるリスクがあり、また、敵対的または屈辱的な職場環境が形成されます。
  • スパムサイトでは、マルウェアやその他の悪質なソフトウェアを職場のコンピュータにインストールすることができます。
  • ヘイトサイトまたは暴力的なコンテンツのサイトでは、社員の安全を脅かし、会社全体の評判が悪くなることがあります。
  • SNS は生産性を低下させ、従業員の注意を日常業務からそらします。

コンテンツ フィルターは、職場でそうしたコンテンツへのアクセスを困難にし、一般的に不適切、違法、または不快なコンテンツに対する会社の不寛容を示すことで、これらのリスクを軽減するのに役立ちます。

効果的であるためには、コンテンツ フィルタリングはすべてのコンテンツ チャンネルに展開されなければなりません。 最も一般的なチャネルは以下のとおりです。

  • Web。
  • 電子メール:Web サイトやページ、ブックマーク、およびその他の Web トラフィックのスクリーニング。 電子メール:様々なスパム、マルウェア、その他の望ましくない、または悪意のあるコンテンツを探すために電子メールをスクリーニングすること。 これは通常、フィルタリングシステムを通じて転送される電子メールの件名行をスキャンすることで行われます。 該当する条件を満たすメッセージを受信すると、そのメッセージは受信者の迷惑メールフォルダーに入れられます。 場合によっては、未配信として送信者に送り返されることもあります。
  • 実行可能ファイル。

ユーザーまたは管理者が好ましくないと判断する可能性のあるコンテンツへのアクセスを停止させることが動機となることが多い。 制限の中には、あらゆるレベルで適用できるものがあります。国家政府が全国的に適用しようとしたり、ISP がそのクライアントに対してフィルタリングを適用したり、雇用主がその職員に対して、あるいは学校が生徒会に対して適用したりすることも可能です。 メールフィルタリングの適用範囲に制限はなく、ウェブにアクセスするあらゆるユーザーにセキュリティを提供するための強力な一歩となることが多い。

コメントを残す

メールアドレスが公開されることはありません。