「有害サイト」フィルタリングは何をもたらすか

民主党有害サイトの削除をプロバイダに義務付ける法案 を検討しているという。 しかも、「有害な恐れがある場合は児童が閲覧できなくなるような措置」も義務付けるそうだ。

それから、昨日のNHKニュースで「警視庁の調べによれば児童・生徒の70%が携帯電話を持っており、そのうち有害情報フィルタリングが有効になっているのは2割のみ」「携帯電話各社は18歳未満の契約者に対しては初期状態でフィルタリングを有効にすることを検討中」とも言っていた。

とても良いことである、とともに、とんでもないことである。

良い側面

判断力の未熟な年齢のうちに微妙な情報に変に感化されないように保護することは、一般論としては良いことであるといえる。年齢の線引きはいつでも微妙な問題なのだけれども、日本では大体18歳になる。18歳になれば平均的には相応の判断力がついてるし、馬鹿な人間は何歳になっても馬鹿だからね。

悪い側面

拡大解釈されて検閲につながる可能性であるとか、プロバイダ責任制限法で対応できるとか、そういう議論はすでに出ている。

私は、安価に維持できるフィルタリングは有害無益である、と改めて述べたい。

フィルタリングの無益

この点についてはかなり前にちょっとした調査をしたことがある。

大体が、フィルタリングを実装するプロバイダってのは、「同性愛」(同性愛的なアダルトコンテンツは含まない)を「有害情報」と断定するような連中なんだよ?

私がこれまでの調査と経験から知っていることをもう一度述べよう。

  • 形態素解析を駆使しても、意味論を考慮しない非知能的プログラムによるフィルタリングは無力。
  • 特に、有害単語データベースによる部分文字列検索による実装は無力
  • それどころか、有害

これはなぜか。日本は、ネット台頭以前に同じことを人手で一度やった経験があるからだ。これは受け売りであるけれども、日本はかつて猥褻本を強く抑圧した。私でもまあ、チャタレー事件や、渋澤龍彦のサド事件は知ってる。こういう猥褻本 *1 の摘発の流れの中で何が起こっていたのか。

隠語の台頭

摘発の過程で問題になったのは、いつでも「どういう表現が使われているか」だ。まあ、そりゃそうで、内容に踏み込んで想像をたくましくすると猥褻であるとか、そんなことを言っていたら何にでも難癖をつけられる。この点については豊田有恒がよく茶化していて、『 非・文化人類学入門 』の「ポルノ」によれば、曰く、「人魚姫の王子様はサディズムの趣味があったかもしれない」「明記されていないからこそ、いかようにでも想像できて興奮する」「究極のポルノは聖書(の系図)」

さて、こうして、「じゃあ直接描写しなければいいんだろう」ということで日本語の官能小説における隠語表現は著しく発達したのであった。この語彙の発達については『 官能小説用語表現辞典 』に詳しい。日本の官能小説家たちはこんなにも表現を工夫したのかと感嘆する(そして呆れる)。

そういえば、先日見た「 クワイエットルームにようこそ 」にも主人公が官能小説を「あぁ、どんぐり、どんぐり、どんぐり!」と読み上げるシーンがあった。日本官能小説の力をもってすればどんぐりすら官能的なのである。

要するに、日本語で性的興奮をそそるような文章を書こうとする場合、あまりにも表現が多様化しすぎていて、かつ日常用語と見分けがつかないように進化していて、単語ベースでフィルタリングするには無理がある。日常用語だけで官能小説を書くことは可能だし、おそらく実例は存在するだろう。

これに対して青少年が誤った性知識を身につけないようにするサイトであるとか、同性愛に関しての偏見を取り除こうとするサイトであるとか、性同一性障害者が生きていけるように支援するサイトであるとか、こういうサイトは概して隠語を使わない。だから、こういうサイトはフィルタリング機構がもっている「性的な単語」のデータベースにとてもよくマッチする。

したがって、意味論を考慮せずに字面でフィルタリングするような真似をすると、ポルノサイトはフィルタを通り抜けるが啓蒙的なサイトはフィルタに引っかかる傾向がある。要するに、false nagativeとfalse positiveが非常に多いのである。前述の私が行った実験も、一サービスの実装を確認したに過ぎないが、結果はこの説を支持している。

生じる問題

DoCoMoのフィルタリング導入の際に草実スサさんは こう書いている

悩んでいる子供にとって、「自分と同じような人間が他にいる」という情報、「それはまったく悪いことなんかじゃない」というメッセージが、どれほど重大な意義を持つか。

抑圧されてきたマイノリティに関する情報が、ネットに接続できさえすれば手に入る。被差別少数者が、共感し、連帯できるかもしれない。こうしたことは、インターネットの普及のもっともポジティブな側面の一つではないだろうか? こういうネットの可能性を、「社会通念」の名の下にやすやすと子供から奪い取って良いものかね。

多分、フィルタリングを義務化すればこうした問題が起きるだろう。こうしたfalse positiveの問題を起こさずに有害な情報をフィルタリングしようと思ったら、唯一の方法は「よくメンテナンスされたブラックリスト」だ。だが、ブラックリスト方式はメンテナンスコストが掛かるし、false negativeを容易に起こす。

だから責任を負いたくないプロバイダはfalse negativeを減らすために単語ベースのフィルタリングを併用するだろう。false positiveが増えても気にしないだろう。あるいは、単語ベースのフィルタリングだけで「警察に目を付けられない程度」に収まると判断すればコストを優先してブラックリストのメンテナンス(あるいはフィルタリング提供企業からの購入)を止めるだろう。あるいは、ホワイトリストでfalse negativeを減らすか? だが、ホワイトリストのメンテナンスにもコストが掛かるし、所詮は少数派の声だ。DoCoMoの件で私が問題にしたような保護者の態度を見るにも、プロバイダはホワイトリストのメンテナンスに手間を掛ける価値を見出さないだろう。

こうして、「インターネットの普及のもっともポジティブな側面」は失われる。性に興味を持つ年頃の子供たちはフィルタリングを突き抜けた巧みなポルノサイトに誘導される。その手の怪しい情報に警鐘を鳴らすサイトはフィルタリングに引っかかって子供の目には触れない。「有害サイト」をフィルタリングしようとしたとき、起きるのはこういうことだ。

穿ち過ぎと思われるかもしれない。だが、だったら今のプロバイダ・ポータル各社が提供している実装は何だ? どこの会社にそんな知能的で意味論に踏み込んだ実装を提供できる技術力がある *2 んだ? 今まで、子供を有害情報から保護したいという保護者のニーズかあって、各社がそれに応えようとしてきて、その結果がこれだ。法案が成立したならば、必ずそういう結果になるだろう。

*1:私ゃ、別にチャタレーにせよサドにせよ猥褻とは思わんが

*2:実はその辺の意味論の話には興味があるので、そういう技術力のある会社があったら雇ってください。お願いします