それで、データ・プライバシーとは何ですか?:情報機構 講師コラム
よくあるお問合わせよくあるお問合せ リクエストリクエスト セミナー会場セミナー会場へのアクセス
セミナーのメニュー

化学・電気系 その他各分野
一覧へ→
  ヘルスケア系
一覧へ→
情報機構 技術書籍情報機構 技術書籍
技術書籍 一覧技術書籍 一覧
   <新刊書籍>
  ガス分離膜
  ペロブスカイト太陽電池
  洋上風力発電
電子書籍電子書籍
化学物質管理化学物質管理
通信教育講座通信教育講座
LMS(e-learning)LMS(e-learning)
セミナー収録DVDDVD
社内研修DVD
セミナー講師のコラムです。講師コラム
  ↑2024/7/17更新!!
お申し込み・振込み要領お申込み・振込要領
案内登録案内登録
↑ ↑ ↑
新着セミナー、新刊図書情報をお届けします。

※リクエスト・お問合せ等
はこちら→



SSL GMOグローバルサインのサイトシール  


トップ講師コラム・取材記事 一覧> それで、データ・プライバシーとは何ですか?:講師コラム


講師コラム:寺川 貴也 氏


『それで、データ・プライバシーとは何ですか?』



コラムへのご意見、ご感想がありましたら、こちらまでお願いします。


第24回(最終回) データ・プライバシーとは何か?(2020/12/15)



1)DXと情報セキュリティ

 DXの推進が政府主導で進められる中、組織にとってセキュリティ対策が重要性を増しています。最近ニュースで報道されるランサムウェア攻撃は、事業運営をITシステムで行っている限りあらゆる企業・組織が攻撃を受けるリスクを負うものなので、多くの組織にとっては他人事ではありません。
 サイバー犯罪も組織化されるようになり、標的型と呼ばれる組織的な攻撃が増えています。それに従い攻撃手法も洗練されてきました。重要な情報資産を人質に取られ、事業継続に影響が及ぶことを懸念して身代金を払うケースも数多くあるようです。
 企業にできる対策は様々なものがあります。セキュリティ対策ツールを導入するだけで安心するのではなく、IPAJCERT/CCが発信する情報をこまめに確認しながら、組織内のセキュリティ状況を定点観測する他、自分たちの組織にとって適切な対策を随時選択するようにしてください。可能であればセキュリティ部門やセキュリティの専任担当者の任命も考慮したいところです。


2)データ・プライバシーとは何か

 さて、このコラムも最終回を迎えることになりました。データ・プライバシーの1年というのは、ドッグ・イヤーというのがふさわしいくらい変化の激しいものです。2020年は、コロナウィルスの拡大に始まり、シュレムスII裁判によるプライバシー・シールドの無効化、ブラジルのLGPDの施行、ニュージーランドのプライバシー法2020の施行、アメリカのカリフォルニア州消費者保護法(CCPA)の改正(CPRA)、日本の個人情報保護法の改正、シンガポールのPDPAの改正法案の提出、EDPBによる新たなSCCや処理者契約のひな型の公表、中国による個人情報保護法案の提出等、多くの話題がありました。このような動きの激しさは、データが現代で重要な働きを担っていることを改めて認識させてくれます。

 このコラムでは、そもそもプライバシーはなぜ大切なのか、という問いかけをベースとして、時事に絡めながらデータ・プライバシーとは何かを多面的に検証してきました。前半では、そもそもプライバシー侵害とはどのようなものか、データの濫用にはどのような問題が潜んでいるのか、といったことを中心に取り上げました。後半では、データ・プライバシーを効果的に保護するための仕組み、特にガバナンスという観点からお話をすることが増えたように思います。

 データ・プライバシーとは何か、という問いかけに一言で答えるのであれば、「個人」や「ユーザ」を保護するために組織が備えるべき機能といえるでしょう。データ・セキュリティが「会社」や「組織」を保護するのとは異なり、データ・プライバシーには社会的な役割としての性格が強く存在します。データ・プライバシーへの対応を徹底することは、社会的な「信頼」を生み、長期的には企業に競争優位をもたらします。他方、データ・プライバシー対応をおざなりにした場合、当局による社会的制裁に加え、ブランドの棄損も生じるため、組織にとっては経営リスクの一つとして認識すべき課題ということもできます。プライバシー対応の直接的な利害が組織に見えにくいのは、環境問題とよく似ています。しかし、現在組織が環境問題を無視した動きを取れなくなってきたように、やがて社会の流れの中で、データ・プライバシー対応を適切に行わずに事業を行うことは困難となることでしょう。

 このような流れの中、プライバシー対応はどのように行うのが良いのか、という問いが生まれるのは自然な流れです。このコラムでは、その回答として、ガバナンス体制の確立であることを示してきました。データ・プライバシーとデータ・セキュリティは切り離せない関係にあることに鑑みると、その行き着く先はデータ・ガバナンス体制の確立といってよいでしょう。GDPRがプライバシー・マネジメント・プログラムを前提とした法律となっているのも、そのような文脈があります。

 データ・プライバシーから少し視線を引くと、社会において、ガバナンスの重要性がこれまで以上に高まっていることがうかがえます。データ・プライバシーのみならず、昨今加速しているデジタル・トランスフォーメーションが要求する情報セキュリティも、セキュリティ体制の構築と運用というガバナンスが必要です。ガバナンスとは、法規制によって促されるコンプライアンス由来のものと、自社の事業特性によって促される、リスク管理由来のものがあります。その双方を効果的に、規律立って管理していくことが、これからの組織のあるべき姿です。

 これは、換言すると、これまで以上にリーダーが必要な時代になっているということです。世界が複雑に変動する中、不確実性にあって方向を指し示すリーダーによって難局を切り抜けていく、というのが今、世の中で描かれている組織像といってよいでしょう。このようなリーダーは一朝一夕でつくりあげられるものではありません。個人でさえ難しいアイデンティティの定義を、組織で行うのですから、リーダーには組織の存在理由を真摯に問いかけることが求められます。組織の存在意義は何か、組織が提供する価値は何か、組織がしてよいことは何か、組織がしてはならないことは何か、といったことを定義できる成熟度が経営層には期待されるのです。


3)社会を中心に

 データ・プライバシーの世界では、最近少し変化が表れてきました。データ・プライバシーとは「個人を中心に」というのが今年初頭までの常識だったのですが、データを利活用している企業は、特定の個人についての分析を行うよりも、集団についての分析を行うことが圧倒的に多いことに注目されるようになってきたのです。この傾向はビッグ・データによる分析で顕著です。ビッグ・データでは、例えばスマート・グリッドのように社会の効率化のために大きな正の影響を持つ反面、「個人」が誤った分類にさらされることで融資を断られる等重大な権利侵害を受ける可能性があります。データの時代は、この個人の権利と社会的な利益とのバランスをとることが重要ではないかという議論がされているのです。

 この場合、データ保護法は個人の権利を保護することのみではなく、社会的プロセスにおいて人々に発言権を与える方法、特定の少数派の利益に対する特別な懸念と公正な認識のバランスをとる方法、「公的」な市民生活とは何かの定義、制度的な市民生活を定義する方法といったものを規定することが重要となります。これは、換言すれば、私たちが理想とする社会はどのような社会なのか、つまり、私たちが「どのような社会に住みたいか」という問いかけに収束するといってよいでしょう。以上の議論は、私が最近読んだニューヨーク大学法学部のフェローであるSalome Viljoen氏の最新の論文からの引用ですが、このコラムでも紹介したドキュメンタリー映画、「私はジェーン・ドウ」がその最後に投げかけた問いが改めて現れていることに不思議なつながりを感じました。

 日本を含む欧米でのデータ保護法の議論は、民主主義の枠組みの中で議論されます。データ・プライバシーとは、政府や行政が私たちに上意下達で伝えるものではなく、私たち一人ひとりが議論を形成し、実現するものです。その議論の先には、データ保護法が実現する社会に自分の大切な人が暮らしてほしいのか、自分の愛する存在がそこで幸福に暮らせるのか、という視点が欠かせないことを忘れてはなりません。未来を作るのは、私たち一人ひとりなのです。

 最後になりましたが、24回にわたりコラムを読んでいただいた読者の皆様、毎回フィードバックをいただいた情報機構の野澤様に心より感謝を申し上げます。




【書籍出版のお知らせ:】

データ・プライバシーの教科書 -GDPR対応を中心とした基本編-
GDPR対応をもとにしてデータ・プライバシー対応に必要な作業を具体的に解説した書籍です。
各種テンプレートやPrivacy Noticeの例も提供しています。

発刊  2020年2月  定価  38,000円 + 税
B5判 約280ページ  ISBN 978-4-86502-183-7
https://johokiko.co.jp/publishing/BC200203.php


【データ・プライバシー情報サイト】
テクニカ・ゼン株式会社では世界各国の最新のデータ・プライバシーに関する動向を日本語で発信しています。ぜひご登録ください。
会員制データ・プライバシー情報サイト




第23回 経済的利益を生まない仕事のやりがいについて(2020/12/1)



1)アメリカ大統領選挙

 アメリカの大統領選挙は、投票後10日を経て全州で勝者が確定しました。強権政治を推し進めたトランプ大統領は民主党のバイデン氏に大統領の席を譲り渡すことになったのですが、様々な言動への批判が多かったにも関わらず、その勝利を左右した要素の一つはラストベルトと呼ばれる地域での票でした。COVID-19による経済の悪化に伴い失業率が高まったため、以前トランプ大統領に流れた票が今度はバイデン氏に流れたということです。選挙は経済に基づく選好の要素も強いことを改めて考えさせられます。
 それにしても、”sleepy Joe”と選挙の相手を平気で中傷する大統領をリーダーに抱くというのは、人間の荒々しい部分を目の当たりにするようで戸惑いを感じます。次々閣僚が職を辞している点からは、折り合いをつけることがむつかしい大統領だったのだろうと察せられます。もっとも、こういった側面がありつつも、日本に伝わっているトランプ大統領像はメディアが作り上げた像の一端かもしれません。昨年アメリカを訪れた時に私が出会ったアメリカ人たちは、当事者でありながらおおらかで、大して気にしている風でもありませんでした。むしろ、前の選挙のスローガンである”Make America Better Again”をジョークのネタにしてTシャツやチョコレートを売っているくらいの余裕はありました。大統領が少々何かを言ったところで政治を動かしているのは官僚だという雰囲気も、首都DCにはあるようです。そんな経験からすれば、今回の選挙で大統領が変わったところで、大きな文脈で政治的路線が変化することはないのではないかと考えています。


2)用いられる人材が異なる

 私は経済一辺倒で物事を判断することについて反対の立場をとっています。実際、経済的正しさで判断すると判断が短視眼のものとなりがちです。長期的、多面的、根本的正しさを検討したうえで判断する場合とは判断が正反対になることも少なくありません。実際、私のお客様の事例で、短期的に成果が見えないことを理由に手を付けず、のちに手を付けていなかったことが取引条件と変わりビジネスに大きな影響が出たという事例もあります。大きな話でいえば、環境問題もそうですし、日本が大量に発行している国債もそうです。これらは長期的に考えた場合、今とっている選択肢は芳しくないものと言わざるを得ないでしょう。ただ、それを正当化する力が、長期的な考え方にない時代に私たちは生きています。

 成熟した国は、長期的な判断を行う傾向があります。衰退期にある国家は、短期的な判断に偏る傾向があります。昨今の世界政治の動向を見ていると、民主主義社会が衰退期にあるのではないかという懸念をぬぐい切れません。

 塩野七海さんの『ローマ人の物語』文庫版最終巻の巻頭言には考えさせられるメッセージがあります。

 『人間ならば誕生から死までという、一民族の興亡を書き終えて痛感したのは、亡国の悲劇とは、人材の欠乏からくるのではなく、人材を活用するメカニズムが機能しなくなるがゆえに起る悲劇、ということである。人材は、興隆期だけに現れるのではない。衰退期にも表れる。しかもその人材の質は、興隆期には優れ衰退期には劣るわけではないのだ。興隆期と衰退期の人材面での唯一のちがいは、興隆期には活用されたのに衰退期に入ると活用されない、ということだけである。ゆえに亡国の悲劇とは、活用されずに死ぬしかなかった多くの人材の悲劇、と言ってもよいと思う。』

 優れた人が必ず用いられるわけでもありませんし、上に立つ人が必ずしも尊敬に値するわけでもないでしょう。時代の趨勢というのは、個人や組織の意図を超えて蠢くものです。私たちは、組織も社会も、与えられた環境の中で生きていかざるを得ないのが現実です。個人にとっては、結局は、与えられた環境の中で、自分が正しいと思うことをやり続けるしかないのでしょう。


3)現代において正しいものはあるのか

 「現代において正しいものはあるのか」というのは、塩野七海さんが母校の学習院で高校生を相手に話をした時に出た質問です。一途な質問ですし、こういった問いかけを現代の高校生がしていることには安心感を覚えます。まさに、人材はいつの時代でもいる、ということです。
 この問いに対する塩野七海さんの答えは一顧の価値があります。「正しいものは何であるかって…え~ 2500年も探してんですよ、ソクラテスもイエス・キリストも。私も考えました、学生時代に。ただね、これ考えてるとね、出口は見つかんないわけですね。」

 絶対的「真理」というのは、生き方の問題に限らず、科学哲学でも非常に重要な問題でした。理系の人間でありながら「科学的に正しい」という言葉に納得できず、私も大学時代ずいぶん探求しました。
 塩野七海さんは、続けます。

 「東京山の手の家庭には私や美智子さまの年代だと家庭のしつけっていうのがあったんです。東京言葉で言うと「みっともない真似はしない」と。
 ここには正しいか間違ってるかは問題にされてないわけです。そうじゃなくて 見苦しい真似はしないと。私は、これはやっぱり一つの出口じゃないかと思うんですね。」

 「みっともない真似はしない」という規範はとてもいいと思います。正しさとは、価値観に行き着くものではないかと思うからです。私の場合、絶対的「真理」があるのかという問いかけは「確率的推論」に行きつき、「人は「どうやら正しいらしい」というものを出発点に理論を構築し活用しているのだ」という理解で一応の決着をつけました。社会に出てからはトランプ大統領顔負けの上司や様々な矛盾の中で、「自分の心に誠実な生き方をする」というところで落ち着いています。倫理が重要となるデータ・プライバシーやデータ・セキュリティ、ガバナンスの仕事はその意味で私によく合っているような気がします。

 塩野七海さんは、続けてアドバイスをしています。「要するに 規範ね。見苦しいことはやってはいけないっていうのは規範になります。正解を早く求めない。正解なんて本当はないと思った方が精神の衛生上 よろしい。正解っていうのは、ほぼない。だから安心して下さい。それであんまり悩まないで下さい。あなたたちはまだ若いんですから。まあ、やって下さい。」

 いいアドバイスだと思います。「正解を早く求めない」ことは、違いを認めることにもつながります。違いがある時に話し合いながら、折り合いの付くところで共通の価値を生み出すこと。それが現代の「正しさ」ではないかと思います。科学哲学ではリチャード・ローティーというアメリカの哲学者が、これを自民族中心主義(ethnocentrism)と名付けています。組織の「規範」も、「見苦しいことはやらない」という線で作れば、それなりに良いものになるのではないでしょうか。大切なのは、「正解」を待つ前に「まずやってみる」ことでしょう。


4)肩書がなくなればただのヒト

 人は、仕事をやめて肩書がなくなれば、ただのヒトにもどります。組織に所属していた時の「偉さ」も「権力」も、霧散してしまうものです。このことは案外多くの人が忘れてしまっているように思います。
 だとすれば、仕事をするモチベーションとはどこにあるのでしょうか。生きてきた証はどこに残るのでしょうか。真面目に仕事をする人であれば、そんな問いが出てくるかもしれません。

 私たちの仕事は、私たちが行い、後継となる人々が引き継ぐものの中に残ります。それは小さな一部かもしれませんが、組織の礎の一つとして組み込まれていくことでしょう。特に、ガバナンスという、組織の方向づけを司る分野を扱うデータ・プライバシーの仕事は、経済的利益をもたらすものではありませんが、長期的な利益を生み出すものです。花形の仕事ではなくても、大きなインパクトをもたらすことができます。また、組織の中にありながら、規定を通じて社会により良い選択をもたらすこともできます。よい仕事をする価値のあると信じられる、幸運な仕事の一つといってよいでしょう。

 ぜひ、自分がかかわる社会をよりよい社会とするためにはどう行動すればよいかを考えながらアウトプットを出していただきたいと思います。



第22回 目的の重要性(2020/11/16)



1)方向づけと資源の配分

 経営コンサルタントの小宮一慶氏によると、経営者の仕事は「組織の方向づけ」と「資源の最適配分」です。つまり、組織がなぜ存在するのかという組織の「目的」を定め、「何をするのか」と「何をしないのか」を決めることが、企業のリーダーである経営者の仕事ということです。

 データ・プライバシーもデータ・セキュリティも、その要となるのはガバナンスです。これらを担当するリーダーは、組織のプライバシーやセキュリティに対する方向づけと資源の配分を行わなければなりません。経営者ほどの重圧はないかもしれませんが、データ・プライバシーとデータ・セキュリティについて組織の「目的」を定め、その「目的」の達成のために「何をするのか」と「何をしないのか」を決めることが、データ・プライバシーとデータ・セキュリティの責任者の仕事です。

 「目的」とは時代や環境が変わってもかわらないもの。いわば、”why”(なぜ)に該当するものです。似た言葉に「目標」がありますが、「目的」と「目標」は異なります。「目標」とは、「目的」を達成するために行うことがら。いわば、”what”(何)に該当するものだからです。「目的」が定まっていれば、「目標」を設定することはそれほど難しくありません。目的に照らして「何をするのか」と「何をしないのか」を決めることが「目標」設定でおこなうことです。

 「目的」は、欧米ではビジョン(visionやmission)という言葉で表現されます。それに対し、「目標」はゴール(goal)又はマイルストーン(milestone)という言葉で表現されています。よい「目的」には血が通っています。抽象的なものではなく、情熱や熱量があるものです。筋肉質なものではなく、思慮に富んだものです。よい「目標」は計測可能なものです。指標をもとに、定点観測を行うことで望んだ変化が実際に生じているかを確認します。


2)目的を生きたものとする

 「目的」を定めることは容易なことではありません。意味のある「目的」とは、あらゆる代償を払っても守り続けるものです。どんなに苦しい時でも、そのために自身の立場を危うくすることがあったとしても変わらないもの。それが、意味のある「目的」です。不思議なことですが、「目的」に血が通っていなければ、人はついてきません。

 「目的」は、リーダーの信じているものが反映されます。そのため、リーダーが信じているものが浅薄であれば、浅薄な体制が、深みがあれば奥行きのある体制が生まれます。昔から人物を評するのに「器量」という言葉が使われてきましたが、「器」の大きさが「目的」の質を高め、ひいては組織の質を高めることになるのです。

 結局、組織とは人が作るものなので、そこにどのような人がいるかで組織の強さが決まります。ガバナンスという観点から言えば、血の通った「目的」を作り出すことができる人物がどれだけいるかで、組織の強さはきまるといえます。


3)目的を作り出すことができる人物

 奥行きのある体制を作ることができる、「目的」を作り出すことができる人物とはどのような人物かというと、それは、仕事を通じて志を実現しようとする人でしょう。儒教の言葉でいえば脩己治人の人です。自分の仕事に真剣に取り組み、それを生涯の仕事と定め、深める人こそがよい「目的」を作り出すことができます。今の言葉でいえばプロフェッショナルな仕事をする人でしょうか。組織を強化する機会を作る上では、ジェネラリストよりもその道を究めようと努力した人が組織の内側にいるほうが良いこととなります。日本でもようやくジョブ型の業務という考え方が生まれてきたので、ガバナンスの観点からは好ましい変化が生じているといえます。

 「目的」とは紡ぎだすものです。失敗をしないことを主とした消極的な動機(e.g. 前例の踏襲、一般的な「目的」の引用)から生まれる「目的」の場合は、義務からしか人は従わないことでしょう。「目的」を紡ぎだすことができる人は、仕事を行っている理由を持っています。なぜ働いているのか、何のためにこの世に生を受けたのか、人生で何を達成したいのかといった問いかけに対する答えがある人が紡ぐ「目的」には血が通い、人を引き付けます。人を感動させる力があるからです。

 ガバナンスが重要となるデータ・プライバシーやデータ・セキュリティにかかわる人は、ぜひ、仕事の先にある自分だけの意味を見つけ出していただければと思います。


4)希望

 結局、優れたリーダーとは、その人が積み重ねてきたものの結果うまれるものではないかと考えています。組織の中での昇進は、複雑な組織内政治や偶然に左右されるため、ポジションがそのままリーダーを反映しないこともあることでしょう。リーダーは、そうであっても、必要な仕事を行う人びとです。自身の目的や志にとって大切なことを優先するからです。こういった人はどんな組織にも必ずいます。特にデータ・プライバシーやデータ・セキュリティの専門家にはそういう人が多いと感じます。望むべくは、そういった人たちが登用される組織となることです。

 今、社会は大きく動いています。既存の価値観が次々に転換され、従来の年功序列型秩序によるシステム維持が無効化されるようになってきました。社会も組織も新たな道を模索しています。そんな中、高い倫理観と使命感をもって仕事をする人がその基盤を支えていることには勇気をもらえます。本当に素晴らしいことです。この分野にかかわることになった人は、ぜひ、そんな空気に触れて楽しんでほしいと思います。この分野で仕事ができるというのは、本当にラッキーなことなのですから。



第21回 One More Choice(2020/10/30)



1)個人情報保護法制大全

 先日、西村あさひ法律事務所の岩瀬ひとみ先生から個人情報保護法制大全(商事法務)という本を恵贈いただきました。日本の個人情報保護法およびデータ保護に関連する法制度と実務上の対応を網羅的に解説した大著ですが、日本第一の法律事務所の名に悖ることがない、優れた内容となっています。特に、日本の個人情報保護法については成立の経緯、解釈の歴史、ガイドラインで示された考え方がつぶさに解説され、とても勉強させていただきました。個人情報保護法の精神について、理解が非常に深まりました。日本の個人情報保護法は、欧州のGDPRの水準に比する個人情報保護法制といえる理由がようやく納得できた、という気がします。
 個人情報保護法制大全はデータ・プライバシーにかかわる専門家にとっては必携の書と申し上げてよいかと思います。業界のリーダーである西村あさひ法律事務所がこのような本を出版してくださることに、法律事務所としての良心を感じ、嬉しく思いました。こういう仕事をされる会社を、大切にしたいものです。


2)修士論文

 ある国際的な企業でデータ・プライバシーの仕事をしている友人が、日本でDPOを任命する必要があるかを検討する修士論文をこのほど書き、その論文を送ってくれました。外国にあって日本の個人情報保護法に関する情報を収集することは容易ではありません。英語に翻訳されている情報が少なく、さらに法の背景にある膨大な議論を理解していることが期待されている法律だからです。友人は、論文を書くためにわざわざ日本語を学び、日本語の文献を読むという大変な努力をしていました。私も微力ながら求められるままに私の知る情報を共有し、日本語の資料を英語に翻訳する等の手伝いをしていた縁で、こうして書き上げた論文を送っていただけたというわけです。
 その論文に、こう書かれています。「日本は国際社会における「リーダー」としての役割を担い、欧州のみならずAPAC及び米国との間のデータの自由な流通を促進するための国際協定を批准するための前向きなアプローチをとっている。」あらためて、世界の日本に対する視線を感じずにいられません。個人情報保護委員会はOECDをはじめとして、データの国際流通促進にむけてのイニシアティブをとっています。2020年10月上旬のOECDでのワークショップでは多国間での共通認識を形成するための基礎的な議論が行われました。少しずつ新たな枠組み形成に向けて議論を深めているようです。


3)One More Choice

 コロナ禍が多くの方の仕事に影響を及ぼしています。古くから「艱難汝を玉にす」といいますが、苦しいときはなかなか素直に受け止められない言葉かもしれません。かくいう私も、コロナ禍に限らず仕事では紆余曲折がありました。紆余曲折を経て、その中で削られ、培われたものが今の仕事に繋がっているようにも感じます。私は大学、大学院で応用物理と応用数学を用いた研究に取り組み、最初のキャリアは機械設計から始まりました。それが法学の分野の修士論文を送っていただけるという体験をできたのですから、人生とは予想のつかないものです。こうやって法律に関係する仕事をさせていただけるようになって思い出したのですが、大学入試の受験では理系であったにもかかわらず、ある大学の法学部も受験していました。その意味では、生きていると帳尻がいつかあってくるものなのかもしれません。

 帳尻があうといえば、私は大学時代からものを書くことや翻訳をすることが好きでした。この経験は、コンサルタントとして仕事をするようになって、ホワイトペーパーを書くことや、こうやってコラムを書かせていただくことで活きてきました。最近では、情報発信を期待して仕事を相談していただくこともあります。こうした経験を通じて思うことは、自分がやってきたことはいつか、どこかでつながっていくということです。だから、目の前の仕事や今取り組むべきことを一つひとつ、その時持てる最大の力で行うということが大切なのではないか、と思います。禅の言葉に「看脚下」(脚下(あしもと)を看(み)よ)という言葉があるそうですが、今ここで何をしなければならないかをつかみ実践することの積み重ねが、未来を作ってくれます。

 私が大学生から社会人になった20年程前は、日本では転職をする人が少数派の時代でした。一つのことを我慢しながらでも続けることが当然の前提となっている空気がまだ色濃く流れていました。そんな状況の中で転職を繰り返し、ある意味、社会不適合者のように見られていた時、私を支えてくれた言葉があります。アメリカのコロンビア大学を出てニューヨーク近代美術館(MoMA)でキュレーターをし、その後京都造形大学(現在の京都芸術大学)で教鞭をとられた福のり子さんがいつも口にしていた、One more choiceという言葉です。どんなことにも、必ず別の道がある。今の自分にみえていること、今自分が考えていることがすべてではないということだと思います。これは、日本語でいう機を活かすということにもつながっているように思います。自分の知らない世界へ進むための選択肢を見失わないようにしたいものです。大変な苦労を乗り越えられてきた福さんが言うからこそ説得力もあるのですが、私は今も、何かに挑戦し真剣に取り組もうとされている方にはこの言葉を伝えるようにしています。思いつめた時に、自分の心に従う縁となればと願うからです。


4)二度とない人生だから

 もう亡くなった方ですが、坂村真民さんという詩人がいらっしゃいます。心に響く言葉を紡ぎだす方です。真民さんの詩には、すがすがしい勇気をもらえます。詩の一つを紹介しましょう。



何が

一番いいか

花が

一番いい

花の

どこがいいか

信じて

咲くのがいい


 生きていくということは自分の花を咲かせることだという人もいます。「信じて / 咲く」ということはなかなかできませんが、与えられた役割を果たす中で、二度とない人生なのですから、自分だけの花を咲かせることができるのが仕事をする幸せと思います。

 私が最近一緒に仕事をする人たちは、「信頼を築く」ということに情熱を持ち、「この世界をより良い場所にしたい」、「この世界をより安全にしたい」と語っています。こういった気持ちで仕事をしている人たちとご一緒させていただけるということは、本当に幸運でありがたいことです。IAPPのCEOであるJ. Trevor Hughesは、データ・プライバシーの専門家は”trust agent”だといっています。分断が目立つ時代です。その中にあって「信頼」のために仕事をすることは容易なことではありません。だからこそ、私たちデータ・プライバシーの専門家は、その本分を果たす必要があるように思います。

 最後に、安岡正篤氏が紹介している清末の宰相の言葉を紹介して、今回のコラムを終えたいと思います。戒めの言葉として心に刻みたい言葉です。

 大抵世の愈々(いよいよ)乱れるのは、第一、何事によらず黒白のわからなくこと。第二、善良な人々が益々遠慮がちになり、くだらぬ人間が愈々でたらめをやる。第三、問題が深刻になると、あれも尤(もっと)も、これも無理ならぬことと、要するに何でも容認することになり、どっちつかずの気持(模稜の気象)で、黒からず、白からず、痛からず、痒からずというような、何だかわけのわからぬことにしてしまう。--清末国柱であった曽国藩の名言である。


第20回 Ruth Bader Ginsburg氏のことば(2020/10/15)



1)Ruth Bader Ginsburg氏のことば

 2020年9月18日、アメリカの最高裁判事ルース・ベイダー・ギンズバーグ氏が亡くなりました。映画 believeをご覧になった方もいらっしゃると思いますが、性差別撤廃(gender equality)や女性の権利向上に尽力された素晴らしい方でした。プライバシーの専門家にも彼女のファンは多く、ギンズバーグ氏の訃報が流れた日のLinkedInは彼女へのオマージュとトリビュートが溢れました。

 今回は、ギンズバーグ氏の言葉を追いながら一流の仕事をした先達が後世に残したメッセージを味わいましょう。

 “I would like to be remembered as someone who used whatever talent she had to do her work to the very best of her ability.” (Ruth Bader Ginsburg, 1933-2020)
 (能力の限りを尽くした仕事をするために自分の持つあらゆる才能を活用した人物として私は記憶されたいと思います)

 ギンズバーグ氏のインタビューはYouTubeでも数多くみることができます。彼女のインタビューを見て印象付けられることの一つに、非常に慎重に言葉を選ぶことがあります。最高裁判事という役職の持つ重みに真剣に向き合い、誠実に職責を果たそうとされていた証拠ではないでしょうか。フィリップ・スタンホープ(Philip Dormer Stanhope, 1694―1773)という人の言葉に”Whatever worth doing is worth doing well” (そもそもやる価値があることはうまくやる価値がある)というものがありますが、ギンズバーグ氏の言葉にはアメリカの指導者にスタンホープの精神が今も生き続けていることがうかがえます。公務員であるかどうかに関わらず、公的な性格を持つ職務にある人には訴えるものがある言葉だと思います。
 欧米のプライバシーの専門家がギンズバーグ氏の言葉に惹かれるのは、プライバシーの専門家が自分たちの仕事を”occupation of trust”(信頼を生むための職業)と理解しているからでしょう。日本でデータ・プライバシーにかかわる私たちも、このような高い理想を持って仕事に取り組んでいきたいものです。

 “When I'm sometimes asked when will there be enough [women on the Supreme Court] and I say, 'When there are nine,' people are shocked. But there'd been nine men, and nobody's ever raised a question about that.” (Ruth Bader Ginsburg, 1933-2020)

 (最高裁の女性判事の数が何名になれば十分だと思うかと聞かれることがあります。私が「(9人中)9人だ」と答えると、皆驚いた顔をします。でも、考えてみてください。9人の男性が最高裁判事を独占していた時があったのです。その時は誰もそのことについて疑問を呈しませんでした)

 冒頭で述べた通り、ギンズバーグ氏は性差別の撤廃と女性の権利向上に取り組み大きな功績を残しました。私たちの社会には男性であれば当然視され、女性であれば驚きをもって迎えられることが数多くあります。女性判事の例や政治リーダーはその一例でしょう。より身近な分野であれば医療がそうです。例えば、外科医は「男性」の職業という偏見があります。次に紹介する思考実験を聞いたことがある人もいるでしょう。

 『父親と息子が交通事故に遭った。父親は死亡、息子は重症を負い、救急車で病院に搬送された。運び込まれた男の子を見た瞬間、外科医が思わず叫び声を上げた。「手術はできません。この子供は私の息子なのです。」』

 外科医は男の子の母親だったというのがこの思考実験のからくりです。外科医は男性だという思い込みがあると最後の発言に混乱を覚えます。

 些細な差別なら許容すべきだという意見もありますが、「これくらい」という軽い気持ちは蓄積するといつしか取り返しのつかないものとなることに注意しなければなりません。

 社会の「当たり前」を変えることは容易なことではありません。問題を指摘したところで、「そんなものだ」と肩をすくめられることが大半です。大抵の人は、そこで諦めます。「当たり前」を変えるには情熱とアート(技術/知性)が必要です。ギンズバーグ氏は、女性差別と闘うために男性に対する差別が害をもたらしている事例から取り組み、女性差別ではなく、「性差別」という行為そのものが社会的実害をもたらすことを示しました。ギンズバーグ氏の成功は、知性と情熱がもたらしたものです。

 “Fight for the things that you care about, but do it in a way that will lead others to join you.” (Ruth Bader Ginsburg, 1933-2020)
 (大切なことのために闘いなさい。ただし、ほかの人が一緒に闘ってくれるように闘うこと)

 「これくらい」がいつの間にか取り返しのつかないものとなるという点では、プライバシーも例外ではありません。ダニエル・ソロブ教授はその著書”No Place to Hide”(邦訳『プライバシーなんていらない!?』(勁草書房))で「プライバシーが一気に失われることは、めったにない。プライバシーはしばしば時間をかけて浸食され、ほとんど感知できないうちにちょっとずつ溶けていき、どれくらいそれが失われたかは最後になってようやく分かる。」と述べているように、データ・プライバシーの専門家の仕事は「これくらい」いいではないか、という社会的コンセンサスと闘う部分があります。

 社会の「当たり前」を変えるためには仲間が必要です。社会をより良い場所にしていくのは自分たちだと考え、行動する人が増えたとき、はじめて社会は変わります。最近では、#MeTooの運動が良い例です。男性に対する女性蔑視の行動に声を上げ、その声に反応する人が増えた時、個人をひねりつぶそうとする既得権益の暴力が力を失いました。主体性をもって社会にかかわる人が増えること、政府、行政、司法、組織、企業、コミュニティと自分たちよりもはるかに大きな存在に対して、対等に渡り合う強さが個人にある時、社会は健全に機能します。
 以前紹介した”I am Jane Doe”というドキュメンタリーのタイトルは、”I am”と「私」を主語にすることで、個人としての尊厳を取り戻すことを宣言しています。個人が尊厳を取り戻すには、「私」という核が必要です。
 明治の時代、同じことを夏目漱石が言っています。

 「私のここに述べる個人主義というものは、決して俗人の考えているように国家に危険を及ぼすもので も何でもないので、他の存在を尊敬すると同時に自分の存在を尊敬するというのが私の解釈なのですか ら、立派な主義だろうと私は考えるのです」(夏目漱石『私の個人主義』)

 前回のコラムで紹介したオンラインでのいじめを防止するグローバル・サミットのStopCyberbullying Telesummitで、私は若者に「志」をもつことを助言しました。「志」は精神論の響きを持ち第二次大戦やその後の日本のモーレツ社会を思い出させるため、私自身あまりよい印象を持たない言葉ではあります。しかし、「なぜ生まれてきたのか」(天命)を知ること、或いは「神はあなたがこの世界に何をもたらすことができるかを問いかけている」(スティーブン・R・コヴィー『7つの習慣』)と認識し答えを用意することで、個人としての成功が基礎づけられることは否めません。「個人の成功」とは、かけがえのない「私」を確立し、「私を活かす」ということです。
 「個」を確立した人が増える時、本当の意味で連携が生まれます。

 "If you want to be a true professional, do something outside yourself." (Ruth Bader Ginsburg, 1933-2020)
 (本当のプロでいたいなら、あなたの外にあることをしなさい)

 専門家であるということは、「私」と「私の外側」を自由に行き来できることです。
 「好きなこと」をして生きていくというのが今の時代のトレンドですが、本当の専門家とは、そんなものではありません。「際立つ」ことは、突飛になることでも、目立つことでもありません。そんなものは、おのずと生まれます。

 本当の専門家にはある種の「義務」が生じるものです。ギンズバーグ氏の言葉は「あなたの外にあること」が何かについて述べていませんが、私は、その専門職を選択したからこそ果たすことが可能となった社会的義務ではないかと考えています。
 実際、私が共に仕事をする専門家には、社会的義務という言葉を口にする人が数多くいます。まだまだ小さな動きかもしれませんが、そうやって社会的義務を果たす専門家が増えると、より未来に希望を持てる社会が生まれるのではないかと感じます。

 データ・プライバシーや情報セキュリティの専門家であることはとても幸運なことです。変化し続ける側面と本質的で変化しない側面が併存し、しかも仕事の先にある社会への影響を感じながら職務を行えるからです。「本当のプロ」であるかについてはそれぞれが定義すればよいでしょう。その定義が高いものであればよいと思います。データ・プライバシーと情報セキュリティに対するニーズは、世界ではすでに顕在化しており、日本でも今後顕在化することでしょう。より多くの若い人たちがこの分野に入ってきてくれるとよいと思います。



第19回 データ・プライバシーと道徳(2020/10/1)



1)新しい書籍の出版予定について

 昨年に続き、8月は情報機構様から出版する予定の本の原稿を書いて過ごしました。私の2冊目となる本はプライバシー・マネジメント・プログラムについてのものです。
 GDPR施行後、アカウンタビリティの重要性が強調される機会が増え、プライバシー・マネジメント・プログラムの内容も概ね固まりつつあるように思います。専門家の私たちも手探りで構築してきた部分がありましたが、フレームワークは固まりつつあります。ISO/IEC 27701に関してもこの秋に審査ガイドラインがISOから出るそうです。来年には正式な審査が始まることが予想されます。今後はフレームワークが定式化していくステージに入るかと思います。定着すれば、浸透は早いでしょう。

 私がプライバシー・マネジメント・プログラムの基礎となる知識の整理を早くしておかなければと考えたのは2018年のGDPR施行前です。その後、TrustArc社(Nymity社)の協力を得つつ2年越しでこの作業を終えることができ、正直ほっとしました。自分に課した宿題をひとつ終えることができたからです。データ・プライバシーの専門家として、ガバナンスについて何か書いておくことは、法律家でもIT技術者でもなく、リスク・マネジメントとガバナンスを背景に持った私がやるべき仕事と考えていたからです。
 日本ではガバナンスやマネジメント・システムという概念がまだまだ本当の意味では浸透していませんが、国外では前提条件となりつつあるため、いずれは避けられなくなるものでしょう。そうなった時に、日本語で確認できる書籍があるということはきっと役に立つと思います。テンプレート例も含めているため、レファレンスとして使ってもらえたらよいかと考えています。
 
 データ・プライバシーは、プライバシー・リスクについての理解やプライバシーとデータ保護の違い等、理解を進める必要がある内容が数多くあります。今後はこういった、法律やテクノロジー以前の根本的な部分についての理解を促進することに努めたいと考えています。「なぜやるか」の動機付けがあれば、データ・プライバシー対応の質が上がるからです。
 同時に、日本ではほぼ手がついていない、子供や学校におけるデータ・プライバシーについての理解の普及に力を入れていきたいと考えています。


2)StopCyberbullying Telesummit - October 1st to 31st

 もう一点、お知らせがあります。10月1日から10月31日まで、オンラインでStopCyberbullying Telesummitが行われます。世界各国の専門家が、オンラインでのいじめ、オンラインでの子どもの安全をテーマにビデオ会議を使って最新の情報と対応方法について議論します。
 私はCyberSafetyの日本代表として10月14日に参加します。個人でのプレゼンテーションの時間をいただいているため、今年発生した木村花さんの痛ましいオンライン・ハラスメントとプロバイダ責任限定法、それから日本における女性の権利促進の現状について紹介する予定です。

 最近は日本でも少しずつ女性が声をあげるようになってきました。これは大変好ましいことです。プロバイダ責任限定法についての議論も始まり、この国がどこに向かおうとしているのかを見極め、報告したいと思っています。女性の権利、個人の権利に関しては、基本的な価値観のレベルでもバージョンアップが必要な部分が多いように感じています。プレゼンテーションでは、そういった課題の特定も試みてみようと考えているところです。



3)菅総裁の誕生

 2020年9月14日、自民党菅総裁が誕生しました。菅氏は「役所の縦割り、既得権益、前例主義を打倒」し、「改革」に取り組むといっています。また、官邸主導を強力に推し進め、「国のためにつくす」とも言っています。

 報道を見る限り、菅総裁の誕生は好意的に受け止められているようです。現在の日本の政治も財政も強力なリーダーシップが必要であることは確かであり、改革路線の提唱は時宜にかなったものです。

 菅氏については、伊藤詩織さんへの性的暴行に関連して山口敬之氏の逮捕を中止した元刑事部長が菅氏の元秘書官だったことや、菅氏が抜擢したとされる人事で登用された河井元法相、菅原元経産相が逮捕されているということがあるため、私はリーダーとしての質にはそれほど期待していません。特に基本的人権や公正な社会構築を目指すデータ・プライバシーの観点からは大きな期待はできないのではないかと考えています。

 一方で、世界各国でのデータ・プライバシーはターニング・ポイントを迎えていることは間違いありません。倫理を軸とした考え方であるデータ・プライバシーは、モラルの問題と直結するため、経済一辺倒の政策対応では、その奥行きの浅さがすぐに見透かされてしまうでしょう。CBPR構想が普及しないのも、案外そんなところにあるのではないかと思います。菅氏は英語での会話ができないという報道もあるなか、こういった世界的な動向を認識できる感性をお持ちであることを期待したいと思います。データは未来の石油であり、経済にも直結するため、その重要性を認識しさえすれば、菅氏の行動は早いのではないかという気がします。

 幸い、日本には蓄積された智慧があります。今一度、こういった蓄積された智慧に立ち戻ってデータ・プライバシーの在り方を世界に問い直してみると説得力がある独自の提案を行えるかもしれません。


4)日本人の教養

 ところで、日本の蓄積された智慧とは何を指すのでしょうか。私は、道徳ではないかと考えています。道徳というと、子どもの頃は「偽善」だとか「面倒だ」と思っていたのですが、大人になり、40歳という年を迎えると、いかに大切なものかを感じます。

 日本は古来、中国の古典を学び、古典の教養をもとに知識人が道を示してきました。
 2,100年以上も前から読み継がれてきた古典の一つに「大学」があります。「大学」は儒学思想を教えるためのテキストで、「修己治人」の思想を端的に現した書物です。日本では江戸期に広く学ばれました。国を治めるためには身を修めなければならないと教え、この影響はいまでも人格批判によってリーダーの資格を問う日本の報道に色濃く残っています。それだけ民族の意識に染みついた教えということなのでしょう。

 「大学」は極めて論理的で明瞭です。冒頭付近の箇所を少し紹介します。

 古之欲明明德於天下者,先治其國;欲治其國者,先齊其家;欲齊其家者,先脩其身;欲脩其身者,先正其心;欲正其心者,先誠其意;欲誠其意者,先致其知,致知在格物。物格而後知至,知至而後意誠,意誠而後心正,心正而後身脩,身脩而後家齊,家齊而後國治,國治而後天下平。自天子以至於庶人,壹是皆以脩身爲本。其本亂而末治者否矣,其所厚者薄,而其所薄者厚,未之有也!此謂知本,此謂知之至也。

 古えの明徳を天下に明らかにせんと欲する者は先ずその国を治む。その国を治めんと欲する者は先ずその家を斉う。その家を斉えんと欲する者は先ずその身を修む。その身を修めんと欲する者は先ずその心を正す。その心を正さんと欲する者は先ずその意を誠にす。その意を誠にせんと欲する者は先ずその知を致む。知を致むるは物に格(至)るにあり。物格りて后知至まる。知至まりて后意誠なり。意誠にして后心正し。心正しくして后身修まる。身修まりて后家斉う。家斉いて后国治まる。国治まりて后天下平らかなり。天子より以て庶人に至るまで、壱に是れ皆身を修むるを以て本と為す。その本乱れて末治まる者は否ず。その厚かる所き者薄くして、その薄かる所き者厚きは、未だこれ有らざるなり。此れを本を知ると謂い、此れを知の至まりと謂うなり。

 天下を太平としたいのであれば、国、家、自身、心…と内面を整え、誠実な心を持てるようになった時に正しい心構えがうまれ、それが巡り巡って結果的に転嫁を太平とすることができる。ものには順序というものがあり、この順序を抜かしてはなるものもならない、というのがこの部分の趣旨です。

 紹介した箇所の直前には「物に本末あり、事に終始あり、先後する所を知れば則ち道に近し」とあり、順序をたがえないことの重要性が強調されています。これが形式化し、書類ばかりが増えてしまったという弊害もあるかもしれません。その一方で、プロセスを重視するということがこの国の道徳では長きにわたって行われてきたというようにも読めます。

 ガバナンスとはプロセスを管理することでした。その意味では、データ・プライバシーの中核を担うプロセス志向は、日本の積上げてきた智慧に対して相性がよいものといえます。何を護るかは文化によって多少ずれるかもしれませんが、外してはならないもの、そのためのプロセスという点ではおおすじの合意を得られるような気がします。
 私たち日本人は、今一度祖先が大切にしてきた価値観に立ち戻ることで、世界に伍する価値観を提示できます。そのためにも、民族として培ってきた価値観を再確認してみる必要があるように思います。



第18回 ガバナンスについて(2020/9/15)



1)個人情報保護法の情報発信とこの国の課題

 私は最近、活動の場を海外への情報発信に少しずつシフトしています。特に、日本の個人情報保護法の改正が2020年6月12日に公布されてからは、そもそも日本の個人情報保護法について理解したいという要望が増えています。

 日本の個人情報保護法はGDPR施行後最初に欧州から十分性認定を受けたこともあり、各国から大きな関心を寄せられています。その割に、英語での情報開示が進んでいないため、情報を求める人が多いのです。
 そんな状況を受け、当社ではこの8月に、個人情報保護法について英語でできるだけシンプルに説明する試みを行いました。ドキュメントとしてまとめ、結局26ページにもなってしまいましたが、日本の個人情報保護法の骨子と日本の個人情報保護体制を端的にまとめることができたと思います。この試みはFPFのCEOであるJules Polonetsky氏をはじめとするデータ・プライバシー業界のリーダーを含め、各国の専門家からとても良い評価をいただきました。当社の会員制サイト有料会員にも無料で配布していますので、ぜひご参照ください。

 このドキュメントを作成する前後で、複数の専門家ともやり取りをしていました。
 その中で、個人情報保護法を英文で分かりやすく解説することは個人情報保護委員会が本来行うべき作業なのになぜこれまでそのようなものがないのか、という意見がありました。最近は個人情報保護委員会のウェブサイトでも英語での情報公開が徐々に進んでいますが、ガイドラインは日本語のみでの公開となっていますし、まだまだ日々の動向は英語で把握できない状態です。個人情報保護法の英文訳も通りの悪い単語を選択していることがあり(e.g. 開示請求が”disclosure”となっているが、この権利を欧州に対してはアクセス権として説明している)、見直しが必要です。とくにデータ流通でリーダーシップを発揮したいという政府の意図があるのであれば、情報をこまめに、論理的に英語で国際社会に開示する必要があるでしょう。当社で作成したドキュメントは、各条項の細かな規制内容までは踏み込んでいませんので、こういった部分を含めて世界に通じる言葉で情報発信が個人情報保護委員会から為されることを期待したいものです。

 もう一点、日本の弁護士事務所による改正個人情報保護法の解説をうけた海外弁護士から、「ガイダンスが出るまで何とも言えない」という発言が繰り返され、説明があいまいだった、というフィードバックをうけました。この弁護士は、自分の国で同じことをしたらすぐに首になると笑っていました。「ガイダンス」を待たなければ正確なことはいえないというのは日本では「普通」のアプローチですが、「正しい」お上の見解を伝聞するだけというのは弁護士の仕事ではない、という考え方には法律に対する彼我に姿勢の違いが現れています。良い意味でも悪い意味でも、日本という国は「日本は、タテ社会でイエ社会で単一社会。個人よりも組織を重視。実力よりも、序列を重視。根回しして、満場一致で、誰の責任か判らないようにして、意思決定する。書いていることよりも意思決定していくプロセスが大事であった。」(池永寛明氏のコラム)が隅々に息づいているように思います。このアプローチは残念ながら透明性に欠く上、思考停止を招きがちです。政府の歯止めが利かない国債発行などは、責任の所在が不明な中規律が失われている最たる例です。国民性は容易に変わりませんが、成熟した国として自分たちの優れた点と欠点を正しく認識し、望ましい社会形成を行うための努力をリーダーは責任をもって促す必要があります。特に高い報酬を取って「先生」と呼ばれるような職業の人々は、自分たちがリーダーだという認識を持ち、社会形成に責任を負っているという高い職業倫理と責任感を備えて仕事をすることが大切です。今、日本に最も欠けているのは、この職業倫理と責任感です。
 現時点でリーダー層に属さない人々も、そういった人々を「先生」と呼ぶのであれば、リーダーの足を引っ張ることはすべきではありません。メディアをはじめとするリーダー層の監視は人格攻撃ではなく、ありたい社会を創造するための創造的な監視であるべきでしょう。リーダーとはいえ成人君主ではありません。優れた芸術家が人格者である必要はないように、リーダーもその職務に対して誠実に果たしていることが最も重要だという視点にそろそろ気付くべきでしょう。子どもが親に完璧を期待するような目をリーダーに向けるというのは社会としてやや稚拙です。もう一点、専門家に対しても意見を言える風潮が必要でしょう。自分の意見を出さずに出てきたものだけを見て相手を批判するという姿がこの国にはあふれかえっています。


2)ガバナンスが希薄な日本企業

 データ・プライバシー対応とは、組織が個人データを適切に処理する仕組みを組織に導入することでした。護る対象は個人であり、組織の目指すものは、消費者からの信頼を維持することです。信頼は金額に表すことができませんが、夫婦間の離婚が往々にしてこじれるように、信頼を損なったときの組織へのダメージは底知れないものがあります。その意味で、データ・プライバシー対応はリスク管理対応であり、ガバナンス体制の構築といえます。
 ガバナンスが機能しているかは、組織に「文化」が根付いているかで判断できます。データ・プライバシー対応をするそもそもの「目的」を、組織の構成員が説明できる状態を作り、組織の構成員が体現しているとき、ガバナンスが機能しているといえます。

 文化というのは、本当に存在するものです。私はかつて、技術系の仕事でトヨタの方とお仕事をご一緒しましたが、彼らの仕事は実に徹底しており、丁寧でした。別の人から聞いたのですが、トヨタの社是には「率直、愚直、徹底的」というものがあるそうです。私が一緒に仕事をしたエンジニアの仕事ぶりは、まさに「率直、愚直、徹底的」を地で行うもので、これがトヨタの強さかと感服した覚えがあります。品質の作りこみというガバナンスが、トヨタでは文化レベルにまで根付いているのです。

 この観点から組織を眺めた時、残念ながら日本の企業でガバナンスが存在している組織は非常に少ないというのが現状です。「コンプライアンス」で求められ、「ガバナンス」体制を形ばかり整えているものの機能していないということが大半です。理由は簡単で、「なぜ」がないからです。たとえばGDPR対応にしても、セキュリティ系のコンサル会社を使用した企業はセキュリティ対策を強化することでGDPR対応が完了したといっているところが非常に多いという事実があります。例えばwebsiteのGDPR対応をしたところで、データ・プライバシー対応上は取り繕った対応をしているにすぎません。マーケティング会社等はcookie対応に躍起になっていますが、cookie対応以前にすべきことはたくさんあります。website対応やcookie対応といったことは、所詮ツールでしかなく、ツールの選択はガバナンス体制が整備された後、最後に行うものです。会計系のコンサル会社を使っている場合は、よりガバナンス的な部分に力を入れていますが、これも、仏作って魂入れずで、テンプレートをそのまま愚直に導入し、「使えない」ルールが蔓延するという状態になってしまっています。理由は簡単で、コンサル会社がすべてを解決してくれると思い、自ら「なぜ」やるかを考えずに、セオリー通りの方法をして入れば無難だと考えるからです。こういった企業では、1年か2年かコンサルに入ってもらった後、データ・プライバシーへの予算を大幅に削ることが通常です。コンプライアンス対応でしかないため、最初のひな型を自社に適切な形に修正するという「考える」作業が想定されないからです。中国の企業でさえ、ガバナンスに力を入れている時代に、日本のこの現状は正直残念という他ありません。



3)日本人は現実的な民族か?

 日本は労働生産性も低く、事業の利益率も低く、政府への支持も概して低く批判的であり、幸福度も低いのに、経済的に成功しているのは、日本人が極めて現実的な民族だからだ、という意見を見かけたことがあります。これはおそらく、個別具体的な話にしか興味のない日本人の特徴を擁護した意見かと思います。具体的な話にだけ関心をもつ日本人は、問題があればテクノロジーで解決しようとします。COVID-19で在宅ワークが普及すれば、安全な在宅ワークのツールを導入すればよい。働き方改革が話題になれば、AIや機械学習ツールを導入すればよい。女性の幹部の割合を引き上げなければならないとなれば、女性を幹部に選べばよい。すべて具体的な行動となって表れていますが、その実、根本的な問題はめったに解決されません。相変わらずハンコのために出社する人が数多くいるのを見かねて政府が「ハンコはやめましょう」と声を上げなければならない、というのは民間企業の自己修正能力のなさを露呈しているといってもよいでしょう。女性の幹部登用率が上がったところで、女性を「女性」として区別してみている時点で、その登用は「死んだ」登用でしかありません。組織の都合で幹部になった女性は、給与が上がって幸せかもしれませんが、本当の意味で女性への機会均等という考え方が実現されたものではないことを誰よりもわかっていることでしょう。

 私は、日本人は現実的な民族ではないと考えています。唯一現実的な点は、それが利益に結び付くかの勘定がうまい点でしょう。もっとも損得はわかっても、体質変更は苦手なのでデジタル化の波にははるかに乗り遅れているのですが…。
 日本人は組織の上の立場になるほど物を考えにくくなるようです。かつて東芝が粉飾決済で倒産間際にまで追い詰められたとき、当時の社長は「私が指示したら下の人が考えなくなる」といって、率先して危機に立ち向かうことを拒否したといいます。リーダーとしての意識が希薄な現れです。日本屈指の名門企業の社長がこうであれば他の企業も推して知るべしでしょう。日本人は、「文化」という名の下、「個人よりも組織を重視。実力よりも、序列を重視。根回しして、満場一致で、誰の責任か判らないようにして、意思決定する。書いていることよりも意思決定していくプロセスが大事」(池永寛明氏のコラム)を正当化している人々だというのが私の感想です。


4)Value Drivenに切り替える

 2000年の日本の名目GDPは約4.9兆ドルでした。2018年、この値は約5兆ドルでほぼ一定です。その一方で、中国は約1.2兆ドル強から13.6兆ドルへと成長し、アメリカは10.3兆ドルから20.5兆ドルへと成長しました。日本が20年間新たな価値を生み出せなかった間に、中国は13倍近くの価値を生み出すようになり、成熟したマーケットであるアメリカでさえ、2倍の価値を生み出しているのです。日本の企業は、組織を護ることばかり考えるのではなく、価値を生み出すということに真摯に取り組む必要があるでしょう。

 ビジネスは社会に価値を生み出すための活動です。ビジネス活動には様々なリスクが存在し、リスクを勘案しつつ、事業を推進します。従って、すべての意思決定は、ビジネス・バリューを増加させるかどうかをもとに判断されます。データ・プライバシー対応やデータ・セキュリティ対応というのは、ビジネス上のリスクの一つに過ぎません。ビジネス設計は、新たな価値を生み出す駆動力と、リスクの分析から行います。リスク対応は、組織のブレーキのように感じますが、車が安心して加速できるのはブレーキを適切に踏むことで速度を調整できるからでしょう。ブレーキという機能のビジネス・バリューは非常に大きなものがあります。

 コンプライアンスとは、当局や産業が、事業者に対して「義務」を課すものです。これは、会社のバリューとは別に護るべきものとして存在します。コンプライアンスとリスクを勘案した事業展開とは、ガバナンスで結びつきます。コンプライアンスは、ビジネス・リスクの一つでしかないためです。

 ガバナンスとは、ビジネス・バリューを適切に管理するための方法論です。ガバナンスとは、「考える」組織をつくることであり、組織が「考える」ようになった時、ようやくツールが活きてきます。ガバナンスのない中で選択するツールは、私の知人に言わせると「どれもExcelと同じ」ということです。どういうことかというと、機能の3%しか使いこなさないからどれを使っても大差ない、ということだそうです。日本の企業ではGDPR対応はすでに完了したような雰囲気が流れていますが、海外の企業では、ガバナンス対応のためにますますスタッフを拡充しているというのが実情です。この状況が続けば、デジタル化で取り残されたのと同じように、ガバナンス体制の整備でさらに取り残されるようになることでしょう。ガバナンスとは文化なので、ツールで直ちに補えるものではありません。現状を放置することは、日本の未来世代に新たな負債を追加することにもつながります。

 まずは、経営層が考えることをはじめ、ビジネスにとっての本当のバリューは何かを考え、意思決定をすることから始めることが大切です。



第17回 「顔認識技術」を封印したIBM(2020/8/31)



1)人種差別の問題

 アメリカのミネアポリス近郊で黒人男性のGeorge Floyd氏が白人警官によって頸部を膝で押さえつけられて殺害された事件は人種を超え、世界中で多くの市民の怒りを買いました。まるで動物でも抑え込むような様子でFloyd氏の頸部を踏みつけている動画に、私はただ言葉を失いました。

 日本ではあまり取り上げられていませんでしたが、その少し前にはジョージア州でマラソン中の武装していない若い黒人男性であるAhmaud Arbery氏が白人成人二人によって射殺されるという事件が起きていました。2月末に発生したこの事件は、その様子を映したビデオからこの若者が理由なく殺害されたことが明確であったにもかかわらず、犯人を74日間逮捕しなかったという不可解な措置が取られ、黒人差別への批判が高まっていたところでした。そして、この原稿を書いている6月13日にも、アトランタで黒人男性であるRayshard Brooks氏が職務質問に抵抗し、警察官に銃撃され死亡しています。この事件では、アトランタ警察署長が辞任しました。

 これら一連の痛ましい事件の背景には人種差別があると理解されています。
 人種差別廃止条約によると、人種差別とは、「人種、皮膚の色、世系又は民族的若しくは種族的出身に基づくあらゆる区別、排除、制限又は優先であって、政治的、経済的、社会的、文化的その他のあらゆる公的生活の分野における平等の立場での人権及び基本的自由を認識し、享有し又は行使することを妨げ又は害する目的又は効果を有するもの」と定義されています。端的に言えば、人種、民族的な背景のみを理由に個人の努力を超えたところで大きな制限や不利益を被ることが人種差別です。残念ながら人種差別は世界中で存在します。GDPRで特別カテゴリーのデータとして人種又は民族的素性が含まれるのはこういった背景があります。

 人種差別は許されるものではありません。残念ながら、人種差別は個人の問題ではなく社会構造に深く根付いたものであるため、無意識のレベルで刷り込まれていることが少なくありません。現に6月13日に起きたRayshard Brooks氏の銃殺では、もみ合いが発生した後平常心を失った白人警官がとっさに発砲した様子がビデオに写っており、相手が白人だったら簡単に銃を発砲しなかっただろうとデモに参加する人々は考えています。

 心ある私たちの先人は、無意識の中の差別を撤廃するために様々な取り組みを行ってきました。人種差別を禁止する法律はもちろん、差別に関する研究への資金提供、多様性の促進、有色人種の登用、各種キャンペーンといった試みを行いながら少しずつ前進してきました。先代のアメリカ大統領であるバラク・オバマ氏は、非白人、アフリカ系として初めて大統領になり、地道な努力が結実しているかのような希望を世界に与えました。今起きている事柄は、先人の積上げた努力が一度に後戻りしてしまったような感覚をもたらし、非常に残念です。


2)日本における人種差別

 ところで、私たち日本人にとって、人種差別とはなかなか理解しにくいもののようです。George Floyd氏の事件を取り上げたNHKの番組が、偏見に満ちた黒人の描き方であったと謝罪しています。NHKの謝罪文では「人権や多様性に対する認識が甘かった」としていますが、日本人の感覚について福岡県立大学の岡本雅享准教授の分析は手厳しいものです。岡本氏は次のように述べています。「戦後の日本社会は、人種や民族を曖昧にすることにより、人種や民族による社会的な不安定要因がないかのごとく印象づけ、また今もそう思い込みたがっているように見受けられる。」(『日本人内部の民族意識と概念の混乱』、福岡県立大学人間社会学部紀要、2011, Vol. 19, No. 2, 77-98)

 曖昧にして雰囲気(コンセンサス)でやり過ごす、というのは前回の「同意」についての日本人のスタンスで指摘したものと重なりますが、問題の核心と向き合ってこなかった結果、「黒人の人たちに対する差別と偏見を助長するもの」を国の公共放送が流してしまうのであれば、この問題は深刻です。というのも、日本における人種差別は無意識レベルのものであり、差別の存在すら認識されていないということになるのですから。差別されている人々にとってはアメリカの状況よりはるかに過酷な状況といえるでしょう。意識的な攻撃よりも無意識による攻撃の方がはるかに残酷なことを行えます。

 実際、COVID-19が話題をさらう前、少子高齢化が進む中政府が打ち出した技術実習生制度でアジアから希望をもって渡航した若者たちが搾取されている報告が新聞を賑わせていました。この事実は、セコイ経営者がピンはねしているという構図以前に、「外国人」を仲間外れにし、いびってもよいと考えている人々が一定数日本にはいるというように見えます。技術実習生に関する問題はこの10年ほどずっと問題になっていたのですが、差別ではなくそのような悪質な行為を行った事業者個人の問題として社会問題になることはありませんでした。その他、最近では不法滞在者の裸体を拘置所内で撮影する等、にわかに信じがたい行為も報告されています。これも悪質な差別行為というべきものですが、社会問題とはなっていません。人権に対する日本の無感覚は、先進国として世界経済をリードしていきたいという国にしては無責任です。



3)RACE AFTER TECHNOLOGY

 差別への無感覚は、技術にも影響を及ぼします。
 プリンストン大学のアフリカ系アメリカ人研究科の社会学者であるRuha Benjamin氏の書いた「RACE AFTER TECHNOLOGY」という本があります。この本ではテクノロジーが表面上は前世代の備えていた人種差別的態度から中立、又はより友好的なスタンスをとっているように見えて、実は差別を固定化し、加速し、固定化しているということについて述べています。Ruha Benjamin氏はこれをNew Jim Codeと呼んでいます。

 差別的な発言をするAIボットのニュースが如実に示すように、技術とは中立のものではありません。技術を構築した文脈で、様々な価値観が織り込まれています。このことは私の連載でも何度か指摘してきました。しかし、世の中の潮流は、AIを採用に導入する、融資の判断にAIを利用する、犯罪捜査に顔認識技術を応用する、といったように、従来人間が行ってきた意思決定を新技術に代替させようとしています。開発の過程で固定化された差別概念を埋め込まれた技術、New Jim Codeは、従来以上のスピードで過去、人々が闘ってきた固定観念を普及していくことになります。その結果「中立」な判断を目指したツールが、世の中の断絶を促進する結果となるのです。

 Ruha Benjamin氏は、このようなリスクを、私たちは技術のブレーキとして使用するのではなく、よりよい解へ導くためのガイドとして利用するべきだといっています。私たちは、差別の存在を認め、その広まりのメカニズムを理解し、正しい方向づけを行うための修正を加え続けていかなければならないのです。

 新技術に埋め込まれた差別や偏見に配慮することなく販促を進めていけば、日本の企業はふたたび「エコノミック・アニマル」として敬遠されることでしょう。それは即ち、国際社会の中での影響力低下につながり、国力に影響します。「民度が高い」と自画自賛している暇もなくなることでしょう。


4)顔認証技術を封印したIBM

 George Floyd氏殺害の事件を受け、IBMが6月8日大きな決断をしました。IBMのCEOであるArvind Krishna氏は以下のような書簡を発表しました。

 “IBM firmly opposes and will not condone uses of any [facial recognition] technology, including facial recognition technology offered by other vendors, for mass surveillance, racial profiling, violations of basic human rights and freedoms, or any purpose which is not consistent with our values and Principles of Trust and Transparency,”
 (IBMは、大規模な監視、人種判断、基本的人権と人の自由を損なう目的で行う、又は私たちの価値及び”Principles of Trust and Transparency” (信頼と透明性の原則)に相容れない、他のベンダーが提供する顔認識技術を含む、[顔認識]技術の使用に固く反対する)

 この動きには、AmazonやMicrosoftが追随したことが報道されています。
 「自動化したシステムは本質的に中立ではない。AIを設計できる人々が持つ優先順位、好み、偏見、コード化された視線を反映している」ことをIBMはこれ以上無視できないと判断したようです。
 AIの進展で技術的な比較と選択の自動化は進みましたが、その入力部分、つまり私たち社会の孕んでいる問題が解決しない限り、ツールが真の意味では貢献することはできないということでしょう。

 IBMや他の企業の動きはとても重要なものです。企業は製品を開発していればよく、それ以外の部分は政府がコントロールすればよいという考え方がもう過去のものとなっていることを表しているからです。


5)これからのビジネス

 これからのビジネスは、事業の社会的位置づけが問われます。ただ利益を出し、あらたな製品を次々生み出すことで革新性を訴えられる時代は過ぎつつあるようです。事業活動を通じて、社会にどのようなサービスを提供できるのかに価値が置かれる傾向がますます明確化しています。

 換言すれば、社会の中での責任をいかに果たすのかといった倫理的な観点が重要になってきているようです。倫理的な観点は、IBMの例が教えてくれるように、巨額の投資を回収する前に事業を停止するという判断さえもたらします。

 私たちは、このような時代にあって、注意深く事業の価値を選び取り、組織の存在意義を問わなければならないでしょう。デジタル化するサービスではデータ・プライバシーへの配慮が重要となりました。プライバシーの専門家も、単なる法律の専門家、ITやセキュリティの専門家を超えて、倫理的な正しさを含めて判断を行えるように期待されるようになるでしょう。技術が高度になればなるほど、その使い手には人間的なアナログ性が求められるのです。その際の指標は、このコラムで何度も指摘したように、「どんな社会に住みたいのか。どんな社会を将来世代に残したいのか」という、非常にわかりやすいものなのです。



第16回 Schrems IIケースの影響(2020/8/17)



1)最近の動向:Schrems裁判とTikTok

 データ・プライバシーの世界は常に活発な動きをみせています。わずか一か月の間に大きな事件がいくつも起こるのが、その熱量の大きさを教えてくれます。2020年8月7日にアメリカが発表したTikTokやWeChatを禁止する大統領令は中国政府によるデータへのアクセスに対する懸念が引き金となりました。同じアメリカは、2020年7月16日に欧州のCJEUからプライバシー・シールドの取消を受けています。これもまた、政府による個人データへのアクセスに対する懸念が理由でした。データは石油が占めた位置を占めるようになるといわれていることに呼応するように、プライバシーや情報セキュリティが政治問題化する時代を迎えたことが感じ取れます。

 TikTokはこの件について次の通りコメントしています。” We have made clear that TikTok has never shared user data with the Chinese government, nor censored content at its request.”(中国政府にユーザ・データを共有したことも、政府要求に従い内容を検閲したこともない)TikTokはアメリカに1年間、様々な証拠を示しながら説明したようですが、結局は無視されてしまったようです。中国をはじめとする共産圏によるメディア検閲は有名です。その他、中国軍によるハッキング等様々な疑惑が中国という国に負のイメージをもたらし、「中国」企業というだけで大きな負債を負う状況が生まれてしまっているのではないかと想像されます。TikTokが言っていることが本当であれば、一事業者である彼らはとんだとばっちりを受けたことになります。「信頼」(trust)の源が、企業にとどまらず、その背後にある国家からくるのであれば、出自を選べない事業者にできることは非常に限定されます。これは事業者にとってやりきれないことではないでしょうか。

 アメリカと中国との対立は日本にとっても好ましくありません。中国は2007年以降、日本の最大の貿易相手国です。莫大な借金を抱える日本政府は、経済的に依存する中国を断ち切ることはできません。一方で、戦後ずっと日本を育ててきたアメリカの要求を断ることもできないでしょう。日本は、「バランス」を取るという戦略を選択した故のジレンマに陥っているように見えます。今は混乱の時ですが、この状況が永続しないことを考えれば、どのような立場をとるかで、その後の国としての「信頼」が左右されることは目に見えています。仮に意図した結果と反対に動き、国の信頼が事業者に及ぶ事態が生じるのであれば、ここでの行動の結果が日本という国家にとっても壊滅的な影響を与える可能性もあります。

 このコラムを通じて何度か指摘してきましたが、私たちは「どのような社会」に生きたいのかを選択する必要があります。「どのような社会」とするかは、誰かが決めるものではなく、そこに住む人々が選択するものです。世界的な政治バランスが崩れ、G0(重力がない浮遊した世界)となっている現代では、一人ひとりが求める社会像を考え、意見を交わし、ともに描くという作業が必要だと感じます。データは誰のものか、政府が個人データに対して行ってよいことは何か、社会が自立し自由に意思決定を行うためにはどのような状態をどのように作るべきか、といった点について専門性を超えた意味のある議論を行い、リーダーによる方向づけを行うことが必要です。


2)Schrems 裁判

 Schrems 裁判については皆さんよくご存じと思いますが、この経緯について改めて簡単に解説しておきましょう。

 Schrems 裁判は、個人データの越境移転に関する裁判です。問題となったのはFacebookの行っている個人データの越境移転です。
 Facebookユーザであったオーストリア人であるMaximillian Schrems氏が、自身の個人データがFacebook Irelandによって、アメリカ国内にあるFacebook Incのサーバに移転され、そこで処理されていることについて、違法な移転だと申し立てました。Schrems氏の主張によると、アメリカの法律及びデータ処理慣行は、公的機関による個人データへのアクセスに対して、個人を十分に保護していないといいます。
 当時はセーフ・ハーバーによるEU-U.S.間の個人データ移転が適法であったため、この申し立ては、いったん却下されました。しかし、アイルランド高等裁判所は、この判決に対してCJEUに照会を行いました。CJEUは、2015年10月6日の判断で、アイルランド裁判所の決定は無効であると宣言し、セーフ・ハーバー協定は直ちに失効しました(いわゆる「Schrems I 判決」)。

 Schrems氏は、アイルランドDPAからの勧告もあり、CJEUの判決をもとに申し立て内容を更新しました。新しい申し立てでSchrems氏は、アメリカが移転された個人データを十分に保護していないと再度主張しました。Facebookアイルランドは、委員会決定2010/87(Commission Decision 2010/87)で採択されたSCCsを用いてアメリカへの個人データ移転を行っていますが、Shrems氏は、これを一時停止又は禁止するよう求めました。これは、SCCsそのものの有効性を問う申し立てです。アイルランドDPAは再びCJEUに照会しました。アイルランドDPAによる照会が行われた後、EU-U.S.プライバシー・シールドに対する十分性が認定されました。(決定2016/1250(Decision 2016/1250))これを受け、最終的にアイルランドのDPAによって照会された内容のポイントは主に以下の3点です。

 ・ GDPRが委員会決定2010/87(Commission Decision 2010/87)のSCCsに従った個人データ移転に適用されるか
 ・ DPAに課せられている義務、およびそのような移転に対し、GDPRに関連してどのレベルの保護が必要か
 ・ 委員会決定2010/87(Commission Decision 2010/87)と決定2016/1250(Decision 2016/1250)の両方の有効性



3)Schrems 裁判の判決

 この裁判は、SCCsとプライバシー・シールドが有効かについての判断をCJEUに仰ぐものであったため、プライバシー専門家の間では非常に大きな注目を集めていました。
 CJEUが2020年7月16日に発表した判断は、端的に言えば、SCCsは引き続き有効であり、プライバシー・シールドは無効であるというものです。SCCsは有効であると聞いて、ひとまず越境移転の適法性が維持されたと安心するのは早計です。というのも、CJEUはこういっているからです。

 ”It is therefore, above all, for that controller or processor to verify, on a case-by-case basis and, where appropriate, in collaboration with the recipient of the data, whether the law of the third country of destination ensures adequate protection, under EU law, of personal data transferred pursuant to standard data protection clauses, by providing, where necessary, additional safeguards to those offered by those clauses.”(ECLI:EU:C:2020:559 Paragraph 134)

 (したがって、とりわけ、管理者又は処理者は、ケース・バイ・ケースで、適切な場合にはデータ受領者と協力して、相手先の第三国の法律が、EU法に基づき、SCCsに従って転送された個人データについて、適切な保護を保証しているか、必要な場合は、SCCsによって提供されるものに追加の保護手段を提供すべきかについて確認する必要がある。)

 即ち、SCCsを使用した個人データ移転についても、第三国で本当に個人データ保護をEU法のレベルで行えるかについては、管理者、処理者で協議して確認し、必要があれば追加措置を行わなければならない、ということです。端的に言えば、SCCsは今後、サインさえすればよい書類ではなく、越境移転に際するDPIAを行う必要があるということです。欧州域内の監督機関は、今後SCCsを基にした越境移転が真に妥当なものか、ケース・バイ・ケースで判断する作業をすることになります。当然、その対象となった場合は、アカウンタビリティを担保する文書がなければ制裁の対象となってしまいます。

 この判決の要点についてはEDPBがQ&Aを出しています当社の情報サイトでも内容のアウトラインを作成していますので参照してください。


4)ハンブルグDPAの声明

 この判決は実務的には、十分性認定がない地域への越境移転に関してはSCCsを使用し、かつDPIA(データ保護影響評価)を実施し、中国やアメリカに欧州の個人データ移転を行う際は管轄となるDPAにコンサルテーションを行うという作業を組織に強いることとなります。しかし、国家が行う作業に対して一事業体ができることは限られています。CJEUの判決は、「越境移転を行う限り個人データに対するリスクを保証するすべはない」といっているようにも読めます。

 このような疑問を表明したドイツのDPAがありました。ドイツのハンブルグ州のDPAです。
 ハンブルグDPAは、「プライバシー・シールドはセーフ・ハーバーの微修正でしかなく無効となったことは正しい判断である」としつつ、「SCCsを適切な転送メカニズムとして維持するというCJEUの決定には一貫性がないものだ」と批判しました。国家によるアクセスが問題であるのなら、「データ輸出者とデータ輸入者の間の契約上の合意は、国家によるアクセスの影響を受ける人々を保護する方法として不適切」だからです。

 Schrems IIの裁判結果は、越境移転そのものについて決定的な疑問を投げかけています。欧州委員会はセーフ・ハーバー、プライバシー・シールドと二度にわたり十分性認定を適切に行わなかったこととなり、今後は十分性認定の信頼性に対する疑念も生じる可能性があります。

 ドイツのハンブルグ州のDPAが出した声明についても当社の情報サイトで内容のアウトラインを作成しています。


5)日本への影響

 SCCsは十分性認定を受けた国にとっては影響がないといわれています。しかし、これは必ずしも当たりません。ハンブルグのDPAが欧州委員会の十分性認定の妥当性に疑問を呈していることを考えると、十分性認定の審査がより厳しくなる可能性があると考えるべきでしょう。実際、イスラエルのあるデータ・プライバシーの専門家は、今回の判決を受けて十分性認定が撤回される可能性があると危機感を募らせていました。

 日本も立場は同様です。日本の十分性認定については、そもそもEDPBが非常に懐疑的でした。越境移転への「同意」への撤回メカニズムがないこと、アクセス権や修正権について個人に制限があるのかが不明確であること、再移転時には移転要件が緩むこと、国家による監視について明確な説明がされていないこと、といった点について厳しい意見が出されていました。(当社の情報サイトで内容のアウトラインを作成しています。)

 今回の個人情報保護法改正では、上記についてまったく触れられませんでした。2021年までに予定されているレビューでは、特に国家による監視と、それに対する”European Essential Guarantees”(欧州の本質的保障)が担保されているかを検証される可能性があります。

 仮に、これをやり過ごすことができたとしても、論理的に話が進むのであれば、Brexit後のイギリスの十分性認定は非常に困難なものとなることが予測され、それに伴い英国領であるジャージー島等の十分性認定も見直される可能性が高いでしょう。その結果十分性認定について、見直しの波が近い将来訪れる可能性は排除できません。

 ほかに考えられる日本の影響については、日本が2019年のG7で掲げた自由なデータ流通構想は、Schrems IIの結果を受け、頓挫したことが挙げられます。(これは面子だけの問題ですが)そもそも、データ・プライバシーへの関心が高まる中、フリー・データ・フローを促進するということ自体が困難な挑戦だったので、これは未来が少し早く来ただけという感もあります。


6)個人データの越境移転は可能なのか

 個人データの越境移転は今の形で可能なのでしょうか。Schrems IIのケースは根本的な問いかけをもたらしました。そもそもアメリカはプライバシー権を基にした国であるのに対し、欧州はデータ保護を基にした地域です。データ・プライバシーに対する根本的な姿勢が異なるなか、それをどうにかして接続するものが越境移転メカニズムでした。無理があるところに作った架け橋なので、当然ほころびが生じます。CJEUは、このほころびを拡大鏡で示したといってよいでしょう。



第15回 「同意」について(2020/8/14)



1)インフォームド・コンセント

 私が初めてinformed consentという言葉を耳にしたのはもう四半世紀も前のことだったと思います。医療の現場で、患者に十分な診療方針の説明をするという文脈で紹介されていました。当時の私はまだ世の中のこともあまりわかっていない学生だったので、耳慣れない言葉とその「回りくどさ」に不思議な違和感を抱いていました。そもそも、「同意」を求められるような現場には「同意」以外の選択肢があるのだろうか、と感じたことを覚えています。医師に「~してもよいですか?」と聞かれて「同意」しないというのは、今の私でも抵抗を感じます。私たち日本人は「コンセンサス」(consensus)の世界に生きる文化を形成しています。英語のconsensusとconsentの語源はともに「con (~共に) + sentio (感じる)」にあるそうです。「同意」が当然で息を吸うように「同意」する日本人にとっては、「同意」という概念はとても難しいものと言えます。


2)「企業名を公表」、「謝罪ものだよ」の文

 データ・プライバシーの仕事をしていて私がいまだに頭で理解できないのがいわゆる「評判」の問題です。日本の個人情報保護法の罰金が低額(50万円以下)に抑えられているのは、日本企業が「違反」することで企業名を公表されるという「評判」を非常に気にするからだと説明されます。もちろん企業にとってブランドはとても大切なもので、ブランド名に結びついたイメージを変えることは非常に難しいものです。ブランドはできるだけ社会から受け入れられるものが良いでしょう。しかし、それだけであれば外国企業でも同じです。Facebookのケンブリッジ・アナリティカの問題が1200億ドルもの株価下落を生じたように、ブランド棄損が生じると外国企業であっても大きなダメージを受けます。「評判」に対する警戒心だけが低い罰金を実現する要素ではないように感じます。そこには日本社会の特異性(他とは異なるという意味での特異性)があるのではないでしょうか。

 実際、日本の社会は不可解です。COVID-19対策でも、「自粛」要請をしておきながら、「自粛」しない企業名を「公表」するということが行われ、「自粛」であり「要請」であるはずが社会的抑圧を加えることで「命令」にすり替わりました。「自粛警察」という不思議な存在も出てきて、「正義」として取り上げられますが、冷静に考えれば一般市民を威嚇して意に従わせようとする反社会勢力以外何ものでもありません。その個人(団体?)にはそのような権限は誰も付与していないはずです。あるのは、なんとなく「自粛しない奴は非国民だ」というコンセンサスで、コンセンサス違反をしたものは裁いてもよいという国民的な気分です。

 気分と言えば、名古屋の知事の発言に大阪の知事が「謝罪ものだ」と反発したという報道もありました。「意見」の相違は「謝罪」という正邪で解決するものではなく、「対話」で解決するものでしょう。「謝罪」したところで事実誤認か事実かの明確化は不可能です。メディアも、「謝罪」を面白がって取り上げるというところから、私たち日本人がこういった感情的なやり取りを好む社会だということもうかがえます。

 「空気」に対する暗黙の了解(silent language)が非常に強いのがこの国の文化の特徴です。コンセンサスという、「暗黙の同意」が刷り込まれた私たちは、独自の意見を持つということに一苦労します。「同意」というのは、自分の意見があって初めて成立するものなので、同調が前提の社会ではこれほど無理のある概念はないのです。


3)GDPRでの「同意」

 日本は「民主主義」国家といわれています。したがって、私たちには「同意」する権利があり、「同意」しない権利もあります。仮に日本の中で「同意」という概念がわかりにくくても、国際化した現代では外国の概念から学ぶことが可能です。欧米は物事を分解して体系立てることに長けています。「同意」についても、欧米から学べることは数多くあります。

 2020年5月、欧州のデータ保護委員会(European Data Protection Board, EDPB)から同意のガイドラインの改訂版が出されました。ここから「同意」について理解を深めてみましょう。

 日本では個人情報の取扱いは原則「同意」を必要としていますが、欧州ではプライバシー権についての独自の議論が進んでいるため、更に個人データ処理の根拠が細分化されています。欧州のGDPRでは個人データを適法に処理するために、次の6つの法的根拠を用意しています。
 ・ 同意 (Consent)
 ・ 契約の履行 (Performance of contract)
 ・ 法律による義務 (Legal obligation)
 ・ 重大な利益 (Vital interests)
 ・ 公共の利益 (Public interest)
 ・ 正当な利益 (Legitimate interest)

 つまり、同意は個人データ処理を行うための根拠の一つに過ぎません。換言すれば、世の中には「同意」が成り立たない場合があるのです。持っている道具が一つであればすべてその道具で解決せざるを無くなります。しかし、道具が他にもあることが分かれば、比較して良し悪しを考えたうえで選択できるようになります。欧州の個人データ保護法が進んでいる点は「適法根拠」の多様性にも表れています。

 さて、「同意」についてですが、ガイドラインでは、次のように述べています:

 「一般に、同意は、データ主体に制御(control)が提供され、次に挙げることに関する真の選択が提供される場合にのみ、適切な適法根拠となる:
 ・ 提示された条件を受け入れるか、拒否できる
 ・ 害を受けることなく提示された条件を拒否できる」

 このように厳しく条件付けされたものであるため、同意を求める場合、管理者は有効な同意を得るために必要なすべての要件を満たすかを評価する必要があります。
 「同意」を得るために必要なすべての要件とは何を指すのでしょうか。
 それは、次の4つから成ります。
 ・ 自由に与えられること
 ・ 特定されていること
 ・ 情報提供を行っていること
 ・ データ主体の希望を明確に示したもので、以下の方法で個人データの処理に同意すること
 
 自由に与えられているということは、暗黙にせよ、明示的にせよ、個人が「同意を強いられている」、「本当の選択がない」と感じないことです。同意しなければ「否定的な結果に耐えなければならない」ことや「損害なしに同意を撤回することができない」状況での同意というのは茶番です。私自身も企業で務めているとき「同意」という名目の強制を受けた苦い経験があるため、このような規定が明確化されているということは健全な法の精神が生きていることを実感します。

 企業がまだ数多くしていることですが、「契約条件の交渉不可能な部分として同意が含まれている場合、それは自由に与えられなかったと推定される」とされている点も興味深いものです。欧州においては、「データ主体に不適切な圧力又は影響を与えて、自由意志を行使することを妨げる要素がある場合、同意は無効となる」ものであることが一貫して主張されます。したがって、「サービスや機能へのアクセスは、ユーザーの同意を条件としてはならない」という条件も明文化されています。「ユーザー端末機器に情報を保存する、または既に保存されている情報にアクセスする(Cookie同意ウォール)」ことは禁止されています。(e.g. ウェブサイト提供者が、[Cookieを受け入れる]ボタンをクリックしなければコンテンツにアクセスできないようにする)

 また、「雇用関係等、管理者とデータ主体との間に力の不均衡がある場合、適法根拠を同意とすることは」できません。従業員からの同意が原則成り立ちません。理由は「自由に」同意を与えることができないからです。ガイドラインでは次のように指摘されています。

 「雇用主/従業員の関係から生じる依存関係を考えると、従業員が次のことを行える可能性は低い
 ・ 結果としてもたらされる悪い影響への恐れや実際のリスクを経験することなく、雇用主の同意を拒否すること
 ・ 雇用主からの同意の要求に、同意への圧力を感じることなく自由に対応すること」


 「特定されている」という意味では、「サービスが複数の目的で複数の処理オペレーションを伴う場合:
 データ主体は、どの目的に対して同意するかを自由に選択できる必要がある」とされています。つまり、マーケティング等の目的のために、といった「一連の処理目的に一括して同意する必要は」個人にはなく、プロファイリング目的に対して同意するのか、メールマガジンに対して同意するのか、営業からの連絡に同意するのかといったことを細分化しておく必要があります。

 同意をとるためには、管理者は「意図された処理活動の特定の、明示的かつ正当な目的の決定を先に行うこと」が求められます。それを踏まえたうえで、「データ処理活動のための同意取得に関連する情報を、他の問題に関する情報から明確に分離」して個人に提示しなければなりません。そうすることで、はっきりと、個人が何に同意しているかを明確に提示できるからです。

 沈黙は同意ではありません。電子的な文脈では、ウェブサイトを使い続けるからとcookieに同意したことにはなりません。個人は、画面をスワイプする、オプト・インのボックスにチェックを入れる、スマートカメラの前で手を振るといった能動的な行為を行うことで、初めて明示的な同意を取得することができます。

 更に、年少者保護のため、「子供への情報社会サービスの直接提供に関し、子供の個人データの処理は、子供が16歳以上の場合に合法とし、子供が16歳未満の場合は、保護者の同意が必要」です。日本でも年少者が被害者となる事件が増えています。年少者保護の概念を個人情報保護法の中に含めることは非常に重要です。最近は中央政府も対応が少し早くなってきたので、これを機に議論を始めてもらいたいものです。


4)日本における「同意」の基準は?

 欧州のガイドラインについて少しだけご紹介しましたが、日本の個人情報保護法における「同意」の基準はどのようなものなのでしょうか?ある法務担当者の方に話を伺うと、日本でも似たような判断がされると思うとのことでした。しかし、その根拠となる資料を私は残念ながら知りません。議論の中で触れられ、当事者たちの間での暗黙のコンセンサスとなっているのではないかと思っています。日本の個人情報保護委員会もガイドラインを出して、法律の理解を促進する努力をしてくれていますが、より明確な判断の基準が欲しいところです。

 「同意」のガイドラインについては、当社の会員制データ・プライバシー情報サイトで日本語にしてアウトライン化していますので、ぜひ有料会員になってご購読ください。



第14回 ベルギーの処分事例が教えてくれること(2020/7/30)



1)通信講座の準備を終えて

 この原稿が掲載される時には告知が出ていると思いますが、6月の中旬から1か月ほどかけて情報機構さんで11月に開講する通信講座の原稿を書いていました。テーマはデータ・プライバシー・マネジメントです。データ・プライバシーにかかわってきた方はもうよく理解されていると思いますが、データ・プライバシー対応で重要なのは法律そのものだけではありません。どのようにオペレーショナライズするかという視点が大切です。特に、様々な法規制が生まれている今日では、新たな法規制に柔軟に対応できる体制の構築が必要です。

 プライバシー・マネジメントとは、データ・ガバナンス、データ・エシックスを意味し、プライバシー文化を組織内に醸成することが最大の目的です。IAPPのCEOであるJ. Trevor Hughes氏は「我々の仕事は信頼についてのものだ」(“We are professionals of trust.”)といっています。この講座では、プライバシー・マネジメントを実現するための要点をかなりしっかりと取り上げています。管理者と処理者の区別の方法やデータ・ディスカバリの意義と弱点等、実務上正しく理解しておく必要がある内容についても取り上げています。個人的にはこの2月に出版した「データ・プライバシーの教科書」よりも一歩進んだものができたのではないかと考えています。

 この通信講座の内容はオンライン・セミナーでも同時に提供する予定です。日程は未定ですが、テキストに加筆して書籍化することも予定されています。データ・プライバシー対応をガバナンスに焦点をあてて解説する貴重な機会なので、ぜひご参加ください。


2)専門家のコミュニティ

 実は、通信講座を執筆している時期は、私自身の仕事もかなり忙しいときと重なっていました。そのため、日中は会社の仕事をして夜中に執筆を進めるという日が何日もありました。
 夜中に仕事をすることの面白いところは、地球の裏側の仲間がリアルタイムで声をかけてくれることです。これはオフィスでの雑談のようなもので、新しい情報や、ホット・トピック、十分学びきれていなかった分野とさまざまなことを知ることができます。当然、このやりとりはgive & takeで成り立ちますが、データ・プライバシーのような新しい分野で仕事をするのであれば、こういった交流が欠かせません。

 今回は、そんなコミュニティでのやり取りから教えてもらった情報から興味深い裁判事例をご紹介しましょう。



3)ベルギーのDPA v.s. Google

 2020年7月14日に、ベルギーのDPAが、ベルギーのDPAとして史上最も高額となる制裁金60万ユーロをGoogleに課すと発表しました。問題となったのは「忘れられる権利」です。
 ある個人が、Googleの検索履歴12件を削除するようGoogleに申し立てました。請求されている検索履歴は、会社のCEOである個人が特定の政治政党と結びついていることを示唆するものや、2010年に取り消されたハラスメント裁判に関するものについてでした。Googleは、検索からの削除を種々の理由で拒否しました。(e.g. ページが存在しない、アクセス不能である、削除の基準に満たない) この対応に対してDPAに苦情が申し立てられた、というものです。


4)Googleの欧州主要拠点と主監督機関

 この件にはいくつか興味深い点があります。まず、主監督機関の考え方です。Googleは欧州の主要拠点をアイルランドとしており、主監督機関はアイルランドのDPAです。Googleの主張によると、GDPRにおける処理(e.g. 検索履歴や検索結果の調整)の「管理者」はアイルランドのDPAでした。従って、この件はアイルランドのDPAが取り扱うべきとGoogleは主張していました。しかし、結局この件はベルギーのDPAが扱うこととなりました。何故でしょうか?

 Googleは係争が進む中で、「サーチ・エンジンのインデックス化」の「管理者」がアイルランド拠点ではなく、米国本社であるGoogle LLCによって行われていることを認めました。GoogleとアイルランドのDPAとの間では、係争が終了する以前に、Google LLCが管理者となる処理については、主監督機関ではないDPAによって調停されることが合意されていました。この合意に基づいて、ベルギーのDPAは今回の係争を担当したということです。

 この決定が意味することは、ワンストップ・ショップは万能ではないということです。欧州の主要拠点を指定してさえいればワンストップ・ショップのメカニズムで欧州のすべての問題を解決できるというのは誤りです。主監督機関の考え方は、欧州の主要拠点が「管理者」として処理を行っているものに適用され、そうでない処理に関しては苦情申し立てがあった各加盟国の監督機関が対応することになるということです。

 主要拠点の決定は、ビジネス上の効率を含めて行っていると思います。したがって、欧州で事業を行う事業者はグループ内での責任所掌を再整理し、意図せぬ結果を招かないようにすることが必要でしょう。


5)管理者は誰か

 もう一点係争で問題となったのは、裁判の「被告」が誰であるかです。すなわち、管理者が米国のGoogle LLCであっても、Google Belgium SAを「被告」として裁判を行えるかです。Google Belgium SAはGoogleのサービスを展開するための”consulting service”を提供している存在でしかありません。処理の責任を負うべきは管理者であり、「被告」は管理者でなければ対象とならないはずです。
 コンサルティング・サービスを行っているGoogle Belgium SAは「サーチ・エンジンの検索から除外する」という処理の「管理者」足り得るのでしょうか?

 法廷はこの点を検討するにあたって、CJEUが下したGoogle Spainに対する「忘れられる権利」についての判決(i.e. いわゆる” Costeja”裁判)とCNILが課したGoogleへの制裁金を無効とした裁判の考え方を適用しました。

 In such circumstances, the activities of the operator of the search engine and those of its establishment situated in the Union are inextricably linked since the activities relating to the advertising space constitute the means of rendering the search engine at issue economically profitable and that search engine is, at the same time, the means enabling those activities to be performed, the display of the list of results being accompanied, on the same page, by the display of advertising linked to the search terms (see, to that effect, judgment of 13 May 2014, Google Spain and Google, C-131/12, EU:C:2014:317, paragraphs 56 and 57).

 (そのような状況では、サーチ・エンジンの運営者及びEU域内に設置された拠点は不可分にリンクしている。なぜなら広告スペースに関する活動は当該サーチ・エンジンが経済的利益をもたらすための手段を与え、当該サーチ・エンジンは、同時に、行われる活動、すなわち検索語にリンクした広告を同一ページに表示することで付帯する結果の一覧を表示することを、可能とする手段であるからである。C-507/17, EU:C:2019:772, paragraphs 50)

 この考え方を適用する場合、Google Belgium SAは「Googleサーチ・エンジンおよびベルギー国内でのサーチ・エンジンの検索結果から除外するという機能のフレームワーク内で行われるデータ処理の管理者と同一の方法で扱われることが可能である」とみなされます。

 注意したいのは、実際の処理がベルギーで行われているのか欧州域外の米国Google LLC社員が行っているかはこの場合関係がなかったということです。(Case C-210/16, EU:C:2018:388)
 管理者であるかどうかは、処理が「不可分にリンクしているか」で判断されるということであり、各国拠点の監督機関は、この観点から常にデータ処理を監督しているという点を覚えておきましょう。

 管理者がだれか、というのは正確な分析が必要です。処理を正しく理解し、意思決定が誰によってなされているのか、その文脈はどのようなものかについて、整理することを忘れないようにしてください。EDPSが出しているガイドラインも参考になります。


6)欧州データ保護法が持つ一貫性

 この原稿を書いているうちに2020年7月16日が来てしまいました。いわゆるSchrems IIケースと呼ばれるデータ・プライバシーで最近最も注目を集めていた裁判の判決が出ました。この裁判では欧州からアメリカへのデータ移転の適法性が検討されました。
 結果は、読者の皆さんはご存じでしょうが、プライバシー・シールドは無効となり、SCCs (管理者-処理者)は有効というものでした。しかし、ここには条件が付帯されており、SCCsを締結しているところで、その移転が個人の自由と権利を欧州人権憲章と同等のレベルで正しく守ることができない場合、データ移転は直ちに停止すべきものであるという条件付きです。

 この決定は潜在的に大きな問題をはらんでいます。データ輸出者や監督機関は、SCCsを使う際DPIAを行う必要があるでしょう。特にアメリカ、中国、ロシア、ベトナムへのデータ移転については監督機関へのコンサルテーションを行うことが必要になるといえそうです。

 欧州はデータ保護というスキームの中で、2015年の決定から変わらずたった一つのこと、すなわち、個人の権利と自由を欧州人権憲章と同じ水準で遵守することができる時にだけデータ移転を許容するということを伝え続けています。欧州というシステムがこの思想に基づいて構築されているため、この姿勢は至極自然なものですが、今回のような大きな影響のある決定でも少しも揺るいでいない点には正直敬意さえ抱きました。一方で、プライバシーというスキームで動く米国にとっては、欧州の要求は時に受け入れられない部分も生じることでしょう。米国が欧州の決定を受けて重要な法律を変えるということは考えにくいため、両者の対立はすぐには解消しないでしょう。この辺りの話は次回のコラムで書きたいと思います。ここ数日は毎日、各国の専門家と意見交換をする日々です。少しずつ、専門家の間でもコンセンサスが形成されつつあります。次回のコラムを掲載するころにはおおまかな方向性が示されていることでしょう。



第13回 ハッキング事例から学ぶ(2020/7/15)



1)情報セキュリティとデータ・プライバシーの相違点

 情報セキュリティとデータ・プライバシーとの相違点は何でしょうか?
 答えは、両者ともデータを保護することを目指すものの、情報セキュリティの目的は「組織」を保護することにあり、データ・プライバシーの目的は「個人(データ主体)」を保護することにあることです。

 情報セキュリティとデータ・プライバシーとは相互に関係していますが、起源が異なることを理解しておくことは重要です。「組織」の保護を目的とする場合、私たちは ”I” 視点での保護を検討するだけで十分です。情報セキュリティでは「わが社にどのような危害があるか」を検討し、「わが社に危害がない」状態を作り出せば目的が達成されます。

 対してデータ・プライバシーでは基本的人権という集団的な権利保護を目指すため、 ”We” の視点での保護が求められます。本質的に、「私たちの社会をどのように損ねる危険があるか」という視点がデータ・プライバシーにはあるのです。従って、「義務は果たした」という態度では利己的との批判を受け、「義務さえ果たしていない」とみなされる宿命にあります。

 近年、情報セキュリティとデータ・プライバシーの境界があいまいになり始めました。デジタル化があらゆる場面で進み、両者が密接に関係するようになったからです。しかし、だからといって情報セキュリティとデータ・プライバシーが融合することはありません。両者は異なる目的を持つものだからです。人が成長して”I” 視点から”we”視点へと移行するように、情報セキュリティが成熟してデータ・プライバシーの要素を網羅することは可能でしょう。しかし、そもそもの目的が異なる両者が融合することは非常に難しいといわざるを得ません。

 デジタル化が加速する現場では、セキュリティに通じた担当者とプライバシーに通じた担当者双方の視点が必要です。換言すれば、開発の現場にセキュリティ担当者の他、法務担当者やコンプライアンス担当者が加わる必要が生じています。製品開発プログラムも時代と共に変化することが求められるのです。同時に、法務担当者やコンプライアンス担当者も、自分の専門に安住することを許されない時代になりました。アメリカではカーネギー・メロン大学を中心にプライバシー・エンジニアリングという分野が生まれていますが、これはプライバシーの言語とIT技術者の言語を橋渡ししようとする動きの現れです。世界は常に流動していることを感じさせる動向です。

 以上を述べたうえで今回は、スマート・カーのもつリスクをご紹介しましょう。スマート・カーではセキュリティ・リスクが人命に係わるため、セキュリティ、データ・プライバシー、機能安全といった従来住み分けていた領域の境界が非常に希薄となっています。IoTの導入、AIの活用が活気づく今日、スマート・カーにSecurity by DesignやPrivacy by Designの考えを導入する方法を考えることは格好の練習材料となります。その最初の一歩はリスクシナリオを把握することです。
 読者の皆さんがスマート・カーの開発に関与するのであれば何を検討項目として挙げるでしょうか。有事にはどのように対応するでしょうか。事例をもとに考えてみてください。


2)スマート・カーのハッキング

 スマート・カーがハッキングされると何が起こるのでしょう?まさか車のコントロールを奪われることはないだろうと思っているでしょうか?残念ながら、ハッキングは車のコントロールを奪うことが可能なようです。その様子を詳しく報告したWIREDの記事があります。この記事は、ENISAという欧州のサイバーセキュリティ当局が出した”ENISA GOOD PRACTICES FOR SECURITY OF SMART CARS”というホワイトペーパーでも紹介されています。初めてこの記事に触れた時、私は不安を感じずにはいられませんでした。

 記事によると、スマート・カーをハッキングすると次のようなことができます。言葉で読んだだけではピンとこないでしょうから、動画でもぜひ見てください。リスクの物質化する様子を目の当たりにすると、ここで羅列したことが意味するものを真剣に考えようという気持ちになるかもしれません。

 ・ダッシュボードに触れていないのに通風孔から最大風量で冷気が吹き出す
 ・ラジオが他のチャンネルに勝手に切り替わりを大音量で鳴り始める
 ・音量ボリュームを下げる操作をしても音量が下がらない
 ・ディスプレイに見知らぬ画像が表示される
 ・フロントガラスのワイパーがオンになりワイパー液が噴出する
 ・アクセルが作動しなくなる
 ・エンジンが完全に停止する
 ・突然ブレーキがかかる
 ・ブレーキを完全に無効にする
 ・ドアロックを勝手に解除する
 ・GPS座標を追跡する
 ・速度を測定する
 ・地図でルートを追跡する


 記事が書かれたのは2015年です。それから5年がたっているので状況は改善していると期待したいところです。少し現状を調べてみたのですが、自動車業界はやはりこの問題に積極的に取り組んでいます。残念ながら対応する法規は現在もまだ整備されていません。車に関するサイバーセキュリティの問題は、開発中のISO/SAE 21434や将来策定されるであろうUN/ECE規則で処置されることとなっています。ちなみにUN/ECEとは欧州の型式認証を取得するために適用しなければならない規格です。
 GDPRやCCPAのような法律がないということは即ち、自動運転車や自動運転技術の安全は現時点では各メーカーの自助努力にゆだねられているということです。もちろん、自動運転技術やつながる車の技術は各社生き残りの必須条件となるため、しのぎを削っていることでしょう。しかし、車メーカーはやはり車メーカーで、そうそう簡単にセキュリティ・ノウハウを習得できるわけではありません。この原稿を書いているちょうどその日にも、トヨタのレクサスがテンセントのホワイトハッカーによってハッキングされたというニュースが出ていました。現在、私たちはより大きなリスクを抱きながら車に乗っていると考えたほうが良いでしょう。

 少し話がそれましたが、スマート・カーには上に述べたようなリスクがあることがわかりました。これをもとに少し演習をしてみたいと思います。次の3つの質問に対する答えをできるだけ具体的に考えてみてください。Security by Design / Privacy by Designやデータ侵害対応の演習となります。


 質問1:(Security by Design / Privacy by Design)
 皆さんがスマート・カーの要件仕様を決める上流工程でのディスカッションに呼ばれたとしましょう。安全で安心な車の開発を行うために検討すべき項目にはどのような項目が挙げられるでしょうか?検討すべき項目をリスト化してみてください。

 質問2:(Incident / Data Breach Response Plan)
 スマート・カーでデータ侵害が発生した場合、あなたの組織における理想的なデータ侵害対応計画を説明してください。責任者やデータ侵害対応チームのメンバーは定義されているでしょうか?会議への参加者、頻度、報告事項、マトリックスは定めているでしょうか?データ侵害対応で行うべきことはマニュアル化されているでしょうか?

 質問3:(Emergency Communication Plan)
 スマート・カーでデータ侵害が発生した場合、社内外の誰に対してどのようなコミュニケーションを行いますか?コミュニケーションの統制はとれているでしょうか?メッセージを発信する人は誰でしょうか?メッセージを発信する媒体には何を使用するでしょうか?社内に対するコミュニケーションのルールと社外コミュニケーションのルールは定めているでしょうか?


 【回答のヒント】
 質問1:
 スマート・カーの場合はENISAのGood Practices for Security of Smart Carsで取り上げられているものをまずはレビューするとよいでしょう。その他アメリカのDOT(運輸局)が出しているガイダンスもあります。Security by DesignやPrivacy by Designに関する活動では、自社の業界に関連したガイドラインを参照することが役に立ちます。日本国内で発行されていない場合は欧米の資料を参照して、検討のたたき台として利用してみてください。車のケースでいえば、各国の省庁が出しているガイドラインの他、ISO/SAE 21434やUN/ECEのドラフト版を入手して検討項目を確認することも役に立ちます。

 質問2:
 データ侵害対応計画の確認では、ISMSやPマークで定めた計画が実際に運用可能であることを確かめます。多くの会社のデータ侵害対応計画はコンサルティング会社が提供したテンプレートそのままです。テンプレートは汎用性を持たせるために一般化されており、具体的な行動にまで落とし込めていないことが多くあります。単に認証用にそろえている程度であれば、これらのテンプレートは更新されていないでしょう。テンプレート内に記載された役割を具体的にだれが担うのか、どういった文書を用意するのか、リスクの判断を行うための評価表はどこにあるのか、だれがリスク評価を行うのかといったことを含めてテーブルトップ・エクササイズを行い、活用できるものへとテンプレートをアップグレードしておくことが大切です。

 質問3:
 情報の発信は多くの日本人が思う以上に重要です。グローバルでビジネスを行う場合は特に丁寧な説明を、社内外に行う必要があります。言葉にしていなければ、それは説明していないとみなされます。言葉を発していいなければ、組織は考慮できていないとみなされます。それは即ち巨額の民事訴訟へとつながります。自分たちが何を把握していて何を把握していないのか理解しておく必要があります。
 日本のデータ侵害時のプレス・リリースによくみられる「必要な対応は完了しています」という表現は不十分です。結果報告のみを行うのではなく、具体的に何をし、なぜ問題を封じ込められたといえるのかを論理的に、透明性をもって説明しなければ説明と受け止められないでしょう。こういった説明の仕方には特別な技術が必要です。要すればPR会社を採用して対応することも検討したほうが良いでしょう。
 また、メッセージには一貫性を持たせましょう。一貫性に欠いたメッセージは隠しごとをしているのかもしれないという不要な憶測を呼ぶため注意が必要です。データ侵害時はただでさえ一刻を争う状況であり現場は大混乱状態となるのですから、できるだけかく乱要因は生み出さない方がよいでしょう。当然、記者会見等を行う前には想定質問を用意しておくことも不可欠です。

3)データ侵害が起きたとき

 個人データを含むセキュリティ・インシデントをデータ侵害(Data Breach)と呼びます。データ侵害は個人へのプライバシー・リスクが物質化した状態となるため、迅速な対応が必要です。対応が早ければ早いほど、個人への危害は減らすことができます。

 データ侵害が発生した時最初にすべきことは、個人(データ主体)を保護することです。間違っても会社を守ろうとしないでください。個人への危害が最小となるよう最大限の努力をしてください。当然、関連する個人データ処理は停止すべきです。

 データ侵害の程度が甚大な場合は監督機関に報告する義務が生じることもあります。監督機関によって課されている義務は法域ごとに異なるため、組織としては要件をまとめたリストを用意し、データ侵害を受けたデータを把握したうえで、どこの監督機関に何を報告しなければならないか迅速に特定できるようにしておくことが大切です。個人に直接的な被害が及ぶ場合は個人への通知も必要となります。通知用の文章やレターはあらかじめ文面を用意しておく方が賢明でしょう。データ侵害発生時に作成されたレターのチェックなどしたい人はいないはずです。切迫した際に行わなければならない業務はできるだけ少なくしておくことです。動きをできるだけシンプルにすることは、状況をコントロールするためにも必要な準備といえます。

 社内外のコミュニケーションについても、計画に従い、必要な頻度で行います。ネットに掲示するだけで済ますこともできますが、データ侵害の程度によってはより丁寧な説明が必要となることもあるでしょう。コールセンターの開設が必要となるかもしれません。データ主体が自身の影響を確認するための特設サイトを用意する必要があるかもしれません。特別なセッティングを行えば、そのセッティングが被害者に確実に伝わるように広報を行うことも組織の義務となります。

 このようにデータ侵害が発生した時にやるべきことは数多くあります。データ侵害対応の責任者は、これを把握しておく必要があります。ISMSやPマークではこの役割を別の者に委任できるとしていますが、私は責任の所在とリーダーシップを明確にするためにも、責任者が把握しておくことが大切だと考えています。指揮官率先といいますが、考えないリーダーはいない方がましだからです。データ侵害については拙著でも章を割いて取り上げていますので、興味のある方は参照してください。


4)“I” (私)視点ではなく”We” (私たち)視点でビジネスを行う

 冒頭で、情報セキュリティは”I”の視点でデータ・プライバシーは”we”の視点であることをご紹介しました。データ侵害対応を行うときには、特にこの点を心にとめておいてほしいと思います。

 「自分のやりたいことをやるにはどうすればよいか」、「自分たちを護るためにはどうしたらよいか」という”I”の視点では、プライバシー対応で最も重要な「信頼(trust)」を得られません。お客様は、自分のことだけでなくお客様のことを考えてくれる人の方が好きだからです。データ侵害に遭ってはお客様と組織は運命共同体のような存在です。お客様のデータを自分ごととして対応できるリーダーが、データ侵害時には求められます。

 継続的にビジネスを行うためにも、信頼を失うようなことは慎むべきです。”We”の視点、個人データを扱う企業として責任を真摯に果たす姿勢を忘れないようにしましょう。個人データを取り扱う企業は今、”I (私)”の視点ではなく”We (私たち)”の視点でビジネスを行う、成熟した「大人」としてふるまうことが期待されています。



第12回 映画『I AM JANE DOE』が問いかけるもの(2020/6/30)



1)ドキュメンタリー:I AM JANE DOE

 ドキュメンタリー映画『I AM JANE DOE』は、アメリカで行われている児童買春を追った作品です。児童売買はbackpage.comという全米で二番目の規模を誇る広告サイト(classified site)が運営する、アダルト部門で行われています。子供が被害に遭った親たちは、同様の悲劇が起こらないようbackpage.comの責任を追及し、アダルト部門を閉鎖するよう求めて訴訟を起こしてきました。ところがbackpage.comは通信品位法第230条(通称CDA section 230、以下「CDA 230」)という法律を盾に免責を訴え、アメリカ司法はこれを認めます。CDA 230はインターネット創世記に制定された法律で、第三者の投稿内容から生じる訴訟からサイトを護るものです。第三者による投稿のコントロールが困難なプラットフォーム、換言すればメッセンジャーに過ぎないパブリッシャは、投稿内容に対して免責されるというのが法律の趣旨です。この法律には合理性があります。例えばFacebookで誰かを貶めるような投稿がされ、これを阻止しなかったFacebookに責任があるということになった場合、Facebookは膨大な量の訴訟に対応しなければならなくなり事業を継続できなくなるでしょう。CDA 230はインターネットのパブリッシャを保護するための法律です。
 法律は当初の意図に反し悪用されます。あるアナリストによると、現在アメリカで行われている児童買春の80%がbackpage.comで行われているといいます。backpage.comはアダルト部門がもたらす膨大な広告収入を手放すわけにはいかないようで、表向きは児童買春阻止に向けた取り組みを行うように見せつつ、児童買春を助長していることがわかってきました。backpage.comはモデレータを雇用して投稿の検閲(チェック)するという対策を導入しますが、投稿に使用してはいけない「禁止用語」を回避するための「隠語」(e.g. 水滴の絵文字やno 傘マークは「コンドームなし」を意味する)の使用を許可し、むしろ隠語を使うことで違法性を隠蔽するよう誘導していた形跡もあるようです。こういった隠語は、コミュニティに属す人であればだれもが理解できるといいます。

 2015年、オンラインでの児童買春の状況にしびれを切らしたシカゴの警察が、backpage.comと取引を行っている大手クレジットカード会社複数社に対して「不法行為を行っている企業と取引をしている」と警告しました。その結果クレジットカード会社は反社会的な企業と取引ができないという理由でbackpage.comとの取引を停止しました。この措置に対し、backpage.comは公的権力による言論の自由の弾圧と警察を訴えアメリカの司法はこれを認めます。根拠となったのはまたしてもCDA 230でした。CDA 230は、社会から不信の目を向けられている企業を保護し続けているのです。

 児童買春の被害者の多くはホームレスとなって人生を終えます。たとえ救出されても子供たちの人生が完全に狂わされます。ドキュメンタリーの中では、被害に遭った子供とその親たちの苦しみも伝えられています。児童買春を積極的に助長するビジネス活動が法的なロジックの問題で放置されてしまうことは大きな害悪を野放しにしているようなものです。
 アメリカでは上院議員が超党派でこの問題に取り組んでいます。CDA 230は今、改正に向けて議論が進んでいます。児童買春以外にも、殺害された被害者の写真がCDA 230を理由に削除されない、ストリーム配信しながら無差別殺人を配信する事件が発生するといった様々な問題に直面し、時代にそぐわないものであることをごまかしきれなくなったためです。

 ドキュメンタリーで伝えられているのはアメリカの問題ですが、日本にもプロバイダ責任制限法があり、CDA230に該当する保護をパブリッシャに与えています。児童買春を許すのも、人が殺されている写真を削除しないのも、殺人の生中継を許可するのも、企業に一任されているのが日本の現状といえます。YouTubeやTikTokが如実に示すように、ビジネスでは注目を集めることに金銭的インセンティブが働きます。自社の利益のために「暴力」や「不法行為」を「所詮他人事」としてビジネスに精を出すのか抑制するのかは、結局企業の価値観の問題に収斂してしまいます。現代は企業に高い倫理観が求められる時代になってきました。

 倫理観というとピンとこないなら、被害者が自分の子どもだったらどうでしょうか?目にしている相手が、自分の兄弟姉妹だったらどうでしょうか?ビジネスの倫理観とは、案外こんな感覚で正しく判定できるものです。
 社会の問題に対して「価値観はそれぞれだから」と傍観者を決め込むことは乗りこんだ船底に大洋の真ん中で穴をあけるような行為です。社会の価値観の崩壊を招き、ひいては自分たちの生活にまで悪影響をもたらします。傍観することは、社会全体が傷つく行為です。ドキュメンタリー映画『I AM JANE DOE』が問いかける根本的な問いは、日本にとっても他人事ではありません。この映画は今、NETFLIXで見ることができます。


2)忘れられる権利とパブリッシャ

 パブリッシャを保護する法律は、データ・プライバシーに対しても問題をもたらしています。その一つが、「忘れられる権利」に関する問題です。
 “I AM JANE DOE”に登場する児童買春被害者の親は、backpage.comに対して娘の性的な写真を削除するように要求していますが、backpage.comはこの要求に応じていません。アメリカには包括的なプライバシー法がなく、忘れられる権利が整備されていないためです。削除するかどうかはパブリッシャ(情報公開する場を提供するもの、プラットフォーム、パブリッシャ)の判断にゆだねられます。訴訟を起こした相手に対して、嫌がらせの意味を込めて削除に応じていないということが容易に推測されます。日本でもだまされてAV撮影された女性がその画像の差止を行うことは容易ではないといいます。日本には個人情報保護法があるものの、ネット上の情報の削除はプロバイダ責任制限法の枠組みで対応することとなっているためです。本当に消してほしければ裁判に訴える必要がありますが、裁判に訴えたからといって必ずしも認められるわけではありません。裁判に要する金銭や時間、勝つことができる可能性を考えれば泣き寝入りすることがほとんどでしょう。

 データ・プライバシーには「忘れられる権利」という考え方があります。人には過去を忘れられる権利があります。若気の至りの行為やちょっとした逸脱行為は誰もが経験するものです。人の価値は過ちを犯したことがないことにあるのではなく、過ちを犯しつつもより人が幸福になる社会を形成することに貢献することにあるはずです。また、人は過去を忘れなければ前に進めない側面もあります。忘れるということは、人が生きていく上で大切な行為です。
 過ちの定義が時々刻々と変わっていることにも注意が必要です。新たな価値観は古い価値観では誤りと判断されるものです。(e.g. 同性での結婚は認められるべきだ、メールではなくチャットシステムで仕事をする) 同様に、古い価値観は新しい価値観の下では誤りとみなされることも往々にしてあります。 (e.g. 女性は男性にだまって従うものだ、従業員は会社に対し滅私奉公するものだ) このように、私たちが生きる社会は流動的なものです。「正しさ」なんて所詮その時点での「正しさ」であって、10年後に通用する保証はないのです。過去を問いすぎないということは、私たちの社会が柔軟に機能していくために欠かせない要素といってよいでしょう。

 繰り返しになりますが、「忘れられる権利」は現実問題として民間のパブリッシャの判断にゆだねられています。次の項で説明しますが、現代、検索結果に公表したくない情報が現れる時、これを削除することは困難です。未来のことなど気にしない時代に投稿した写真が就職活動時や仕事を行う上で災いとなることはよくある話です。人は間違いを犯す存在なので、その意味で、現代は間違いが許されない非常に生きにくい時代になりつつあるといえるかもしれません。


3)プライバシーと言論の自由

 パブリッシャはなぜ個人の削除請求に対応しないのでしょうか。
 その理由は人の基本的人権のひとつである「言論の自由」に見つけられます。

 1948年12月10日に採択された世界人権宣言には、第12条でプライバシー権が謳われています。同19条には表現の自由についての権利が謳われています。人権という意味では、プライバシー権も表現の自由(言論の自由)についての権利も同列です。同第29条第2項では、個人の権利は絶対ではなく、バランスを考慮しなければならないとも記載されています。
 一民間企業に過ぎないパブリッシャは、個人の請求に応じて「忘れられる権利」に応じることで不要な係争(削除することで「言論の自由」を侵害されたという訴えに直面する)に巻き込まれることを警戒します。そもそも一民間企業は「プライバシー」と「言論の自由」を比較し衡量する立場にありません。司法が明確な指針を提示しなければなりません。しかし、「プライバシー」と「言論の自由」のバランスはケース・バイ・ケースでしか考えられないという矛盾があるのです。

 例えば欧州GDPRでは「忘れられる権利」が適用される条件として次のものを挙げています(GDPR 第17条):
 ・ 取得した当初の目的又は処理の目的に対して不要である場合
 ・ 個人が同意を撤回し、その他に適法な個人データ処理の根拠がない場合
 ・ 個人が個人データ処理に異議を唱え、個人データ処理を正当化する適法な根拠を見いだせない場合やダイレクト・マーケティング目的で個人データ処理を行っており個人が異議を唱えた場合
 ・ 個人データ処理が不法に行われていた場合
 ・ 子供のデータがSNS等で取得されていた場合
 GDPRは同時に、「忘れられない権利」が適用されないケースについても提示しています:
 ・ 表現及び情報の自由に関する権利の行使に必要な場合
 ・ 欧州法や加盟国法が要求する法的義務への準拠するためや当局から依頼されて公共の利益又は公権の行使を行うために必要な場合
 ・ 公衆衛生に関連した公共の利益のために必要な場合
 ・ 公共の利益、科学的調査、歴史的調査の目的でアーカイブが必要な場合等
 ・ 法的主張の確立、執行、防衛のために必要な場合

 法律とは概念しか示さないものです。具体的な指針が与えられていない中、パブリッシャが判断に迷い、「何もしない」ことを選択するのは致し方ない部分があるかもしれません。


4)最後は社会のプレッシャー

 “I AM JANE DOE”の中には、高名な判事が「車の広告掲載とエスコート・サービスの広告掲載で区別する必要がある理由が見いだせない」といって告訴を棄却する場面があります。「児童買春」という社会的に許容できないモラルの問題が、アカデミアで完全に欠落してしまう様子を描いている場面です。アメリカでは上院議員がこの問題に対処するために動いていることを紹介しましたが、象牙の塔に住む人々が頭で考えた世界と私たちが生きる世界との間にバランスを取り戻すためには、政治による積極的な関与、リーダーシップが必要となります。政治とは民衆が住みたい社会を実現することだからです。
 これは、「政治家」の仕事ではなく、国を形成する民衆の仕事でもあります。官僚は官僚の常識で世間ずれしていますし、政治家は利権に目がくらみ、保身に走りがちです。「政治家」が動くのは意見を訴える民衆を無視できないからです。

 皆さんは日本という国をどういう国にしたいでしょうか?皆さんは、自分の愛する人や子供たちが幸福に暮らすためには、この国がどうなり、どのような人が権限を持つべきと考えているでしょうか?
 世の中にはなんでもわかる「エライ」人なんていません。メディアに頻繁にでて発言している人たちも「エライ」から発言しているのではなく目立って面白いからメディアに出ているにすぎません。(もちろん素晴らしい意見を述べられている方もいます。)誰もが感じていることをアウトプットし、政治家や官僚、メディアにプレッシャーを与えることが大切です。どんな意見も抑圧することだけはしてはいけません。発信こそが、社会を動かす駆動源です。

 日本は、この点少し希望が持てます。改正個人情報保護法には個人からも数多くの意見が寄せられました。その意見には洞察に満ちたものも多く、専門家の私も感銘を受けました。何よりも勇気づけられたのは、人々が声を上げるようになっていることです。現行の個人情報保護法に違和感を持つ人が、意見公募という機会を逃さず声を上げたというのは本当に素晴らしい動きだといえます。

  “I AM JANE DOE”はこのドキュメンタリーを次の言葉で締めくくっています。
 「どういう社会であるべきか?」

 私たちも同じ問いかけをしたいものです。私たちが社会にもっとも影響を与えることができる場所は、自分たちが働く企業です。できれば、皆さんの企業が採用するプライバシー・ポリシーをはじめとする各種ポリシーが、よりよい社会を形成するドライブとなるように働きかけてほしいと思います。データ・プライバシーとは人が幸福に暮らせる社会を実現することです。すべての人が、この活動に関わる資格があると思います。



第11回 ロケーション・プライバシー(2020/6/15)



1)Future of Privacy Forum (FPF)

 アメリカのFuture of Privacy Forum(FPF)は、IAPPと並ぶ世界のプライバシー界をリードするNPOです。IAPPは専門家のコミュニティとして、トレーニングやツール、情報の提供を行うのに対し、FPFは新しいテクノロジーの課題をプライバシーの観点から調査研究し、対策の提案を行っています。FPFの活動の成果の一つとして有名なものに、一種のアメリカの教育用ソフトウェア業界認証といえるK-12 School Service Provider Pledge to Safeguard Student Privacy(K-12教育現場向けサービス提供業者による、生徒のプライバシーを安全に保護するための宣誓)があります。K-12とは幼稚園から高校までの子どもたちを指します。この宣誓はFPFが2015年にSoftware and Information Industry Association(ソフトウェア及び情報産業協会)と共に開発したもので、ホワイトハウスが承認しました。宣誓に反する運用を行うと、FTC(Federal Trade Commission, 連邦取引委員会)法第5条に抵触し、「不公正又は欺瞞的な行為」(unfair or deceptive trade practices)とみなされ処分されます。これまでAppleやat&t等大企業を含む414社が署名し、全米で広く認知されています。現在は2020年版の作成に向けて作業が進められています。余談ですが、FPFのようにNPOの活動が社会に大きな影響力をもつのはアメリカの強さであり、バランス感覚の良さといえます。政府や行政に対する健全なチェック機能が働くからです。アメリカの持つ公共性をはぐくむ在り方やそのためのリソース配分の行い方、価値観には見習うべきものがあります。

 今回は、FPFの特集であるPrivacy and Pandemic(プライバシーとパンデミック)で紹介されている内容をベースに、コロナウィルス対応で大きな懸念を生じているデータ・プライバシー上の問題についてお話していきます。今回取り上げるのはロケーション・プライバシー(location privacy、位置情報に関するプライバシー)です。


2)COVID-19対策とロケーション・データ

 COVID-19(コロナウィルス)対策で最も重要な対策は、感染者との接触を減らすことです。欧米ではSocial Distancing (社会的距離を保つこと)と言われますが、実際はPhysical Distancing(物理的な距離を保つこと)で感染の可能性を低減できます。日本の非常事態宣言で首相が強調したことも、人との接触を8割低減することで感染拡大を阻止できるということでした。実際、中国はこの対策を徹底することで感染拡大の封じ込めに成功しています。

 この対策で活用されるのがロケーション・データといわれる、個人の位置情報データです。携帯電話やその他テクノロジー会社から得られるデータを利用することで、ウィルスに罹患した患者の追跡を行う、罹患者の近くにいた可能性のある人や感染拡大が進んだ地域に滞在した人々に警告を送るといったことがされています。イスラエルでは携帯電話の位置情報を活用できるようにした緊急時規制が成立し、欧州でも携帯会社に対し、匿名化しているにせよ、位置情報を集約したデータを提出するように求めています。韓国ではウィルス罹患者の分布を示す地図を公表しました。

 こういった活動には、どのような問題が潜んでいるのでしょうか。


3)ロケーション・データとは何か、誰が取得しているか

 ロケーション・データとはその名の通り位置情報です。位置情報と一口で言っても、日本の大阪府といった大まかな位置情報(IPアドレスから割り出すことのできる情報)から、どこのビルのどの部屋という精緻な位置情報(Wi-FiやBluetoothネットワーク情報と携帯電話のMacアドレスから得られる情報)まで幅広いものがあります。COVID-19で活用される位置情報は個人レベルを特定できるレベルのものであるため、後者が活用されます。

 位置情報を把握する原理はシンプルです。私たちがネットワークに接続する際、アンテナや基地局を通じて接続しています。アンテナの場所や基地局は固定した場所にあるため、電波の発信源がどのアンテナや基地局を通じてやりとりしているかを確認すれば、どのあたりにいるかを大まかに推定できます。(i.e. 電波が届く範囲にいると推定ができる。)

 精度を高めたい場合は、より細かい情報を、頻繁に確認します。
 インターネットに接続する機械には固有の識別番号(MACアドレス)があります。今はWi-Fi化が進んでいるため、街中にいればどこにでもインターネットに接続する機器があるといってよいでしょう。そのため、Wi-Fiへの接続機器の位置情報を記録しデータベース化すると、かなり正確な位置情報(e.g. 大阪駅のグランフロントに通じる通路の上)が特定できます。(Wi-Fiよりも電波の届く範囲が限定的なBluetooth情報を使えば、その精度は更に高まります。)
 時々刻々と発信される電波を用いて頻繁に位置情報を更新すれば、ある個人が移動している様子をリアルタイムに把握することも可能です。実際、携帯電話やスマートフォンの普及が進んだおかげで(日本では普及率が85%以上)、携帯電話を持つ限り、私たちの位置情報はほぼリアルタイムに、高精度で把握可能となっているのです。

 携帯電話の所有者名がわかれば、特定個人を追跡することが可能です。通常はMACアドレスまでしかわかりません。こういったデータは人の移動をモニターするために使用されるため、個人を特定しない「集合データ」(aggregated data)としてのみ利用されています。

 ロケーション・データにアクセス可能なのは携帯電話会社、モバイル・オペレーティング・システム(Android(Google)やiOS(Apple))の提供業者、アプリやアプリのパートナー会社(「位置情報を有効にしますか」という表示に代表される、アプリでの位置情報取得とこの情報をパートナー会社が提供するSDKを通じて送信する)、位置情報分析業者(携帯電話を含むIoTデバイスの発信する電波をもとに店のどのコーナーに人が集まったか、訪れた客が興味を示した商品はどれか、どの時間帯にどれくらいの待ち時間が生じているかといった情報を取得する)といった存在です。


4)ロケーション・データの取得方法

 ロケーション・データというとGPSを思い浮かべるかもしれませんが、ロケーション・データにはGPS以外にもいくつかの取得方法があります。ここでは、GPS、携帯電話の基地局、Wi-Fiネットワーク、Bluetoothのビーコン(beacon)について紹介しましょう。


5)GPS

 スマートフォン等のデバイスにはGPSチップが入っていて、人工衛星によるGPSで位置検出が可能です。GPSの欠点は精度にばらつきがあり、天候や物理的な障害物によって影響を受けることです。特に遮蔽物が多い都市部では精度が低下する傾向があり、大きな建物の中に入ると位置の検出ができません。最近では、GPSとそれ以外の信号(e.g. Wi-Fi、Bluetooth)を組み合わせることで、位置の同定精度を向上しています。


6)携帯電話の基地局

 携帯電話の基地局は携帯サービスを提供するために各携帯電話会社が設置するものです。携帯電話会社からはどの携帯電話がどの基地局にアクセスしたかが見えるため、携帯電話の所有者の大まかな位置をつかむことができます。携帯電話の基地局は常時電波(基地局ID)を発信しており、各基地局のIDが複数の公的機関、民間機関によってデータベース化されています。このデータベースを利用すると、より詳細なロケーション・データを得ることができます。


7)Wi-Fiネットワーク

 モバイルデバイスの近くにあるWi-Fiネットワークを確認することでロケーション・データを得ることができます。Wi-FiルータのMACアドレスと正確な位置を対応させた大規模なデータベースが構築されており、含まれているデータ数は数百万から一億データと言われています。このデータベースは商用利用されているため、opt-outすることもできます。(e.g. GoogleではSSIDの後に”_nomap”を追加する)


8)Bluetoothビーコン

 最近は子どものランドセルに小指ほどの大きさのタグをつけると、子どもが学校の校門を出た時に親に連絡メールが届くサービスがあります。こういったタグはビーコンと呼ばれ、Bluetooth信号等の無線信号を発信しています。このビーコンを店の商品棚に設置することで、Bluetoothへの接続を有効としているアプリと通信したデバイスの場所を推定でき、更に近くの店をプロモーションすることもできます。

 これらの取得方法は独立して使われることもありますが、最近ではより正確なロケーション・データを得るために組み合わせて使用されるようになっています。例えば、iOSやAndroidは、ユーザが許可した場合、複数のセンサーの情報を組み合わせることで高精度の位置情報を提供する「位置サービス」を備えています。こういった情報は渋滞予想情報の提供や事故情報の提供で活用されています。


9)ロケーション・データが孕むデータ・プライバシー上の問題点

 ロケーション・データは正確な個人の位置情報を取得可能となる可能性があるため、取扱いに注意が必要なデータと認識されています。実際、アメリカでは2018年にFCCがロケーション・データの不正開示に2億ドルの罰金を課しています。特にCOVID-19対策で使用するロケーション・データは、高精度な位置情報を必要としているため、政府とテレコム会社が連携すると発表した際は、私たちのプライバシーがかなり侵害される状態になりつつあると認識すべきです。

 名前を識別子に変えたところで、デバイスが停止する時間の長い場所が「自宅」であることは容易に想像がつくため、データは「匿名化されている」という説明はあまり意味をなしません。(i.e. データ・プライバシーとは文脈から侵害される可能性もある)政府や協力している会社に対しては、ロケーション・データを機密データとして扱うよう要請するのが良いでしょう。本来は個人情報保護委員会が独立機関として注文を付けてほしいところですが、個人情報保護委員会の議事録はただ「承認した」と述べているだけであり、どこまで議論をしたのかの透明性に欠いています。日本にも行政を監視するオンブスマンが必要だと感じます。管理方法、管理に際して採用する技術、不正な処理に対する法的措置の整備、アクセス制限のレベルといったことを厳しく監視する必要があります。また、スマートフォンの保有率が85%を超えているといっても、スマートフォンは高価なものに変わりはありません。そのため、スマートフォンを持たない(持てない)人々のデータがロケーション・データから抜け落ちる可能性もあります。こういった格差が原因となって対策に地域差が生じるようなこともあってはいけません。特に日本は移民を推進し始めたところなので、公平性の観点からも、こういった移民の方が等しく利益を得られるような運用を行う必要があります。最後に、政府や政府機関が取得したロケーション・データを別の目的で再利用することがないように監視する必要もあります。例えばCOVID-19の追跡目的で利用していたロケーション・データがいつの間にか数理モデル構築のためのデータとして使用されるということは十分あり得ることです。このデータが公になることで、故意ではないにしても個人の位置情報が不正開示される可能性も考慮し、慎重なリスク・アセスメントの実施を要請する必要があるでしょう。



第10回 子どものインターネット・リテラシー(2020/5/29)



1)CyberSafety.org

 私はデータ・プライバシーのコンサルタントとして仕事をする傍ら、子どもたちがインターネットと賢く付き合えるように学ぶための活動をしています。この活動はアメリカのサイバーセキュリティ法の創設に貢献した弁護士Parry Aftab氏がイニシアチブをとって行っている CyberSafety.org(ウェブサイトは製作中)で、アメリカ、インド、ポルトガル、オーストラリア、日本ですでに活動が始まっています。
 現代の子どもたちはデジタル・ネイティブといわれ、高いデジタル・リテラシーをそなえています。その一方で、オンラインとリアルとの区別が十分ついていないため不用意に自身の写真や画像を共有しトラブルに巻き込まれるケースが数多く発生しています。私たちは、ネット環境の利点と危険を区別し、子どもたちがインターネットという素晴らしいツールから安全に最大限の利益を得られるように、子どもたちと共によりよいネットとの付き合い方を学ぼうとしています。

 CyberSafety.orgでは2020年3月16日から3月18日にかけてオンライン・サミットを行いました。オープニングをインターネットの父と言われるヴィントン・サーフ氏がオープニングの言葉を述べ、世界中の子どものオンライン・セーフティの活動家、弁護士、セキュリティやプライバシーの専門家、警察、規制当局の責任者といった高い専門性を備えた人々が、特にセクスティングをテーマにパネル・ディスカッションを行いました。セクスティングとは性的なテキストメッセージまたは写真を携帯電話間で送る行為をいいます。

 日本でも株式会社マモルCEOの隈有子様、北浜法律事務所の生田美弥子先生、アンダーソン毛利友常法律事務所の中崎尚先生の3名の方に参加いただき、この問題についてパネル・ディスカッションをおこないました。

 オンライン・サミットの様子はcybersafetylive.comで見ることができます。特にお子さんのいらっしゃる方にはぜひ見ていただきたいと思います。(私たちが行ったパネル・ディスカッション以外はすべて英語です。)
 また、CyberSafet.orgの日本での活動のスポンサーとなってくれる企業や共に運営をしてくれる仲間も募集しています。関心を持っていただいた方は、ぜひご連絡をいただければ幸いです。(cybersafety-jp★technica-zen.com、★を@に変更)


2)子どもを取り巻くリスク

 私の世代や私よりも少し上の世代だと、「倫理」というと「お説教」だったためこういった話題は窮屈に感じる方が多いかもしれませんが、子どもを取り巻くインターネットのリスクというのは「あるべき」論ではなく、身を守るためのものなので、少し性質が違います。

 子どもを取り巻くインターネットのリスクにはどのようなものがあるのでしょうか。
 パネル・ディスカッションで株式会社マモルの隈さんが紹介してくださった情報と総務省が2017年に出しているインターネットトラブル事例集をもとに子どもを取り巻くリスクについて説明しましょう。

 オンラインでの子どもを取り巻く犯罪は大きく4つに分類されます。一つ目は「いじめ」に関するものです。グループ・チャットで一人だけ仲間外れにされる、誹謗中傷を受ける(学校が違う相手に対してばれないだろうと「なりすまし」て「〇〇は万引きをした」等書き込む)、脅迫される(「〇月〇日に待ち伏せて痛い目に合わせる」と書き込む)といったものです。

 事例:
 クラスの仲良し数人でやっているグループトークでAさんは、「〇〇の話っていつも面白くない」という書き込みの最後に 「?」 をつけ忘れたまま、スマホを置いてお風呂に入ってしまった。お風呂上りにスマホを見ると、「ひどい!」などの書き込みがあり、誤解を解こうとしても、反応がない。Aさん以外のメンバーが別グループを作り、Aさんを外していたことがわかった。

 二つ目は「個人情報の漏洩」です。住所や学校、使っている駅等をオンライン上で特定され、ストーカー行為の被害にあうというものです。

 事例:
 無料通話アプリで、学校の友人からバトンが回ってき、Aさん(女性)は軽い気持ちで名前や年齢、学校名などを答えた。その結果、ネットで知り合った男性に待ち伏せされた。以前その人に無料通話アプリのアカウントを教えていたため、Aさんの情報が見られていた。

 三つ目は「児童ポルノ」や「性犯罪」です。下着姿や胸や下半身の写真を送信させられる、付き合っている相手だからと許した性的な写真を別れた後に腹いせでばらまかれる、またはそういった写真を削除するために性行為を強要されるといったものです。

 事例:
 ネットで知り合った女性(実際は男性)に、体についての相談にのってもらったところ、「相談に必要だから顔、胸、性器等の写真を撮って送ってほしい」などと言われた。言われるがまま、自分の性器等を撮影し、送信してしまった。その後、実は相手が男性であることを知らされ、連絡がとれなくなってしまった。

 四つ目は「金銭トラブル」です。オンライン・ゲームのアイテムを購入し高額請求が届く、オンライン・ショップ購入して支払いが済んだのに品物が届かないといったものです。

 事例:
 探していた製品を扱うサイトを見つけたAさんは、品質に難ありといった口コミや、代金振込後発送のみといったことは不安だったが商品を購入した。しかし、その後、いくら待っても商品は届かなかった。購入の際にあった連絡先にメールで問い合わせても返信はなく、電話もつながらなかった。

 今回、サミットではこういったリスクの中で、特に三つ目の犯罪にフォーカスを当てました。セクスティングは、被害者の尊厳を奪い、時に命まで奪うからです。
 日本でのセクスティングは、2019年の警察の報告によると584人が被害にあったといいます。これは統計上の数字でしかなく、泣き寝入りしたケースも数多くあることが予想されるため、実際の被害はこの数倍あると考えたほうが良いかもしれません。日本ではオンラインに流出する画像の30パーセントが自撮りといわれています。世界では60パーセントが自撮りにより送信されているという報告もあります。残念ながら、犯罪の被害にあうのは主に女性です。親しくなりたい異性の気を引くため、好きな人に送るように言われたから、送ってもらったからお返しをしないといけない、といった理由で、子どもたちは写真を送ってしまうようです。デジタル・ネイティブの彼らは、デジタルを通じたコミュニケーションが当りまえであるため、リアルでのコミュニケーションとデジタルでのコミュニケーションの区別が明確でないといいます。軽い気持ちで送信してしまうのでしょう。


3)テクノロジーについていけない親

 気軽に画像を送信できてしまう環境が整っていることも一因です。Skype、Twitter、Line、Cacao Talk、SnapChat、Instagram、TikTok、YouTube、WhatsAppと、子どもたちが無料で使えるツールがデジタル世界にはあふれています。ところが大人は、SnapChatやTikTok、Cacao Talkといわれてもピンとこないかもしれません。急速に進化するアプリの世界についていくのはなかなか大変です。

 アダルトサイト等不適切なサイトへのアクセスを遮断するためにはフィルタリング技術を使えば大丈夫と思うかもしれませんが、フィルタリング技術は正しく使わなければ回避できてしまいます。携帯回線のみにフィルタリングをかけているとWiFi環境には制限がかかりません。また、フィルタリングを回避可能なブラウザーもあります。有害サイトフィルタリングツールを提供しているi-フィルターのサイトによると、iPhone、iPad、iPod touchなどのiOS端末では『ブラウザー型フィルタリング』をインストールして、「Safari」と「App Store」をオフにする必要があり、Android OS搭載のスマホ、タブレット端末では 『ブラウザー型フィルタリング』をインストールする必要があるといいます。ブラウザー型フィルタリングをインストールしても、iPhoneではLineやTwitterを通じてサイト閲覧が可能といいます。このようにフィルタリング技術といっても万能ではないのです。

 今述べたような説明を知っている親はどの程度いるでしょうか。白状すると、私も最近までフィルタリングの分類や正しい設置の仕方については知りませんでした。私と同じような親はきっと多いことでしょう。毎日のことに忙しく、新たなテクノロジーについていけないのです。調べる能力はあるかもしれませんが、実際にはなかなか調べないというのが現実じゃないでしょうか。そんな時、私たちが取りがちの行動は「子どもに使わせない」です。これはせっかくのツールが少しもったいないと思います。


4)どう解決するか?

 子どものインターネット・リテラシーについては従来の学校型のモデルは成り立たないように感じます。従来の学校型モデルは、大人の方がより知識があり、その知識を子どもに分け与えるというスタイルです。大人がより知識があるからこそ成り立つモデルです。デジタル・テクノロジーに関していえば、子どもたちの方がはるかによく知っているという状況が生まれています。子どもたちの方が大人よりもたくさん使っているからです。だから、大人が教えられることは限られているといってよいでしょう。ひょっとすると、私たちは従来の「大人が教えて子どもが学ぶ」というスタイルを放棄しなければならないかもしれません。

 このことを述べたうえで、子どものインターネット・リテラシーをはぐくむために大人ができることについて考えてみましょう。三つ提案したいと思います。まず、テクノロジーを使うこと。大人にインターネット・リテラシーがあることが大切です。仕事で「素人は嫌だ」と感じる方は多いでしょう。子どもだって、「素人は嫌だ」と思います。大人が「素人」でいたらそれこそ話もしてもらえないかもしれません。まずは、大人が最新のツールをどんどん利用して、インターネット・リテラシーを高めることが大切です。二つ目は、事例や事件について子どもたちと話すことでしょう。答えありきではなく、何が問題で、どう思うのか、相手を一人の人間として尊重しながら話を聞くことが大切です。前提として、子どもが信頼して話をしてくれる関係を築いておくことも大切ですね。家族のコミュニケーションが、今まで以上に大切な時代になっているといえると思います。三つ目は、段階を踏んでインターネットの世界に子どもたちを触れさせることでしょう。水泳の練習をベビープールから始め、次は浮き輪をつけ、ビート板を使い、そのあと一人で浮かぶようになるように、少しずつインターネットという大海になれていくというアプローチをとることが大切でしょう。サバンナでも猛獣が狙うのは子どもです。ネットの犯罪者たちは、弱い子どもを狙います。十分対応できるようになるまで、子どもをリスクにさらすことは賢明ではありません。

 CyberSafety.orgでは、大人が子どもに教えるという枠を超え、子どもが子どもに教えられるようなリーダーの育成も考えています。子ども同士の方が受け入れられやすい場面もあるかもしれないからです。
 いずれにせよ、インターネット・リテラシーはこれからの時代、欠かせないものとなることでしょう。未来の世代を、この新たなスキルにどう導くのかを考えるのは、現在世代の大切な責任の一つだと思います。




【書籍出版のお知らせ:】

データ・プライバシーの教科書 -GDPR対応を中心とした基本編-
GDPR対応をもとにしてデータ・プライバシー対応に必要な作業を具体的に解説した書籍です。
各種テンプレートやPrivacy Noticeの例も提供しています。

発刊  2020年2月  定価  38,000円 + 税
B5判 約280ページ  ISBN 978-4-86502-183-7
https://johokiko.co.jp/publishing/BC200203.php


【データ・プライバシー情報サイト】
テクニカ・ゼン株式会社では世界各国の最新のデータ・プライバシーに関する動向を日本語で発信しています。ぜひご登録ください。
会員制データ・プライバシー情報サイト





第9回 プライバシーとは何か?(2)(2020/5/15)



 今回も前回に引き続き、プライバシーとは何かを検討していきましょう。
 今回は少しアプローチを変えて、答えのないケースで、プライバシーのもたらすジレンマを考えていただこうと思います。私から正解を提示することは行いませんので、あなたがデータ・プライバシーの担当者だったらどのような対応を行うかを考えてみてください。なお、今回紹介するケースは、私が昨年参加したIAPPのリーダーシップ・ミーティングで世界を代表するプライバシーの専門家たちとともに検討したものを日本語にしたものです。全部で3つのシナリオから構成されます。


1)ケース1:遺伝子情報を利用するフィットネス・アプリ

 あなたはロード・ランナーというフィットネス・アプリを開発している会社のプライバシー責任者とします。日本でも増えてきた、ランニング愛好者向けのアプリです。
 このアプリはiOS上とアンドロイド上で動き、ランナーの活動履歴、歩数、心拍数、栄養状態をトラッキングできます。会社はこの度、ロード・ランナーの世界中のユーザのうちopt-inした人にコヨーテという、ユーザの電話に接続できる新製品を送付するといいます。
 コヨーテは唾液サンプルからDNAを分析し、ユーザの遺伝情報を読み取ります。コヨーテはその情報をローカル・デバイス上に保管し、遺伝情報に合致したユーザの運動方法や食事を提案します。
 また、会社の研究所のスタッフは遺伝情報へのアクセス権を付与するということです。研究所では遺伝情報を用いてA/Bテスト(サービスの比較テスト)を行うことや、「長距離ランナーの遺伝子マーカー」と題したホワイトペーパーを発表すること、ネーチャー誌に投稿するための学術論文の執筆を計画しています

 アプリ・ユーザの遺伝情報と運動習慣や食習慣はBeepという安全なクラウド・サーバーに送信されます。送信される遺伝情報は生データではありません (e.g. アルツハイマー患者に共通してみられる突然変異の可能性が1.6%見られる、といった分析結果情報のみが送信される)。運動習慣や食習慣についても個人を特定不能として送信します(e.g. 毎週9マイルはしり一日当たり2200カロリー平均して消費する、といった情報が送信される)。これらの情報は世界中のトップクラスの学術研究所の研究者に公開されます。もちろん研究所はNDAおよびデータ・セキュリティ契約を締結します。データは、腫瘍、胃腸病、肝臓の領域での科学的研究の進歩のために使用されます。

 会社はこのプロジェクトを画期的なものだといいます。それによると、コヨーテは、十分プライバシーに配慮しつつロード・サイド・ランナーだけではなく、科学の進歩と社会の改善にも寄与することになるということです。

 プライバシーの責任者のあなたは遅まきながら、このプロジェクトの存在を知らされたわけです。プライバシーの責任者としては何を行い、何を検討する必要があるでしょうか?


2)ケース2:フィットネス・アプリが異分野に進出

 コヨーテ・プロジェクトは無事ローンチされ、市場にも受け入れられた様子です。コヨーテ・プロジェクトを発表した数か月後、会社は新たな発表をしました。デート・アプリを開発する会社と提携するというのです。この提携の結果、コヨーテを使用するユーザはデート・アプリ会社の開発するアプリで「遺伝プロファイル上相性がいい相手」や「類似のライフスタイル」を持つユーザとマッチングされるようになるそうです。

 デート・アプリ上では、ベジタリアンやグルテン・フリー・ダイエットの愛用者同士がマッチングされるため、嗜好の異なるカップルの家でしばしば発生する、家庭内の無用な争いが解消されます。また、肥満傾向のあるユーザが、健康で幸福な生活を実現してくれるようなパートナーに会うこともできるという利点もあります。適切なパートナーと出会ったユーザは、食生活を改善することでより健康な生活を営めるようになり、健康で幸福な暮らしが実現できるというわけです。

 フィットネス・アプリとデート・サイトの連携は業界の枠を超えた画期的な取り組みです。会社はマーケティング戦略上もこの提携は非常に好ましいものと考えています。

 今回もまた、プライバシーの責任者のあなたはすべてが整えられた後に声をかけられたことになります。あなたはため息をつきながら必要な対策を講じます。さて、あなたはどのような対応を行うでしょうか?


3)ケース3:デート・サイトとの提携が炎上

 何か新しいことに取り組むと、必ず想定外のできごとが起こるものです。
 デート・アプリとの提携発表後数か月した時のことです、Wall Street Journalにデート・アプリのマッチングに問題があるという記事がでました。この記事によると、マッチングの判断基準に人種や民族的背景についての情報を含めていなかったにも関わらず、デート・アプリのマッチング結果が同じ人種の間でのものとなる傾向があることがわかったという報告があったということです。報告の主はBeepにアクセス可能な研究者の一人でした。それによると、白人と非白人とのマッチングは、全体の2%未満でした。その一方で、黒人、アジア人、ラテン人に関しては人種間でのマッチングがより多く行われたとのことです。
 さらに、少なくないケースで、家族のメンバーがマッチングされたという報告があります。とどめは、少なくないユーザが、異性愛者にもかかわらず同じジェンダーの相手をマッチングされたと主張していることです。遺伝子マーカーによる意思決定ではないことは確かなのですが、このようになった理由は定かではありません。
 Wall Street Journalはアルゴリズムを改修して民族間、文化的背景の相違を超えたマッチングを実現すべきだとしています。この記事はツイッターで話題になり、同性愛の促進と社会的偏見の固定化をもたらしていると批判されました。

 もはやプライバシーの問題を超えつつありますが、プライバシーの責任者であるあなたはこの対応を任されてしまいました。ユーザや社会に対して合理的な説明が必要です。あなたなら、何を検討し、どのような説明を誰に行い、どのような対策を講じるでしょうか?


4)プライバシーの問題には専門家が必要

 いかがでしたでしょうか?興味深かったのではないかと思います。私がこのケーススタディに参加した時はプライバシー界のオール・スターといってもいい人たちが次から次にお手本となるような回答を提起し、同じテーブルで意見を求められるような状況で、幸福で眩暈がするようなひと時でした。その一方で、プライバシーの専門家たちも、このケースに関してはあまりの展開の過激さに苦笑していました。
 注意したいのは、日本でも靴とセンサを組み合わせた製品やセンサの埋め込まれた着衣で自動採寸するシステムが導入されているように、ここで出てきたような話は現実化しつつあります。実際に対応を考える必要があるものとなっているといってもよいのではないでしょうか。

 このケースで考えるべきことはプライバシー・リスク、セキュリティ・リスク、ステークホルダーとの関係性、アカウンタビリティ、透明性、適法性等多岐にわたります。特に法律に関してはかなり専門性も高くなりますし、プライバシー・リスクやセキュリティ・リスクもカタログから選べば対応できるようなものではありません。素人が片手間で行うにはリスクが大きすぎると判断されるでしょう。状況を検討した上で、訓練を経た思考を伴った判断が求められるからです。プライバシーの専門家が必要とされる理由はここにあります。

 デジタル化が進み、時代は急速に変化しています。社会も時差を置きながらも新しい現実を認識しつつあります。個人情報保護法の3年ごとの見直しに対するパブリックコメントには887件もの意見があつまり、個人情報保護委員会が示した個人保護を強化する指針に多くの賛同が示されたことは、時代の変化を実感させるものでした。企業も積極的に(正しい教育を受けた)プライバシーの専門家との対話を開始し、コンプライアンスとしてのデータ・プライバシー対応から脱却するときが来ているように感じます。



第8回 Facts Uncovered(2020/4/30)



1)無知と偏見

 Caroline Criado Perez氏が出版した”Invisible Women”という本があります。この本では、私たちが暮らす社会がいかに男性中心(men as the human default)で形成されているかが示されています。携帯のサイズ、薬の処方、都市計画、政策、etc.と、あらゆるものが男性をデフォルトとして設計され、「残りの50%(other half of humanity)」が見過ごされているというデータは、公然と存在する不平等を目の当たりにする不快感をもたらします。
 私たちが「そういうものだ」と信じている常識は未来の「非常識」であることがしばしばあります。米国で1950年代から1960年代に起きた黒人の公民権運動は、肌の色に関わらず人は平等だという「常識」を社会に認識させました。人権に対する無知が偏見を生み出していた例です。アメリカでハリウッドの大物プロデューサーがセクハラで有罪判決を受けたニュースが大きく報じられましたが、女性に対する偏見もまた、男性が女性以上に価値があるわけではないという事実に対する無知が偏見を生み出し、著しい不平等を生み出している一例です。
 無知と無知が生む偏見は実害をもたらし、それによって著しい不利益を受ける人が生まれます。不快なのは、加害者はいつも無感覚であるということです。現状を受け入れた人々は、いつも変化を望みません。それどころか、変化を抹殺しようとし、また抹殺してきました。希望があるとすれば、この世界には不正に立ち上がる人が常にいて、大きな問題をはらみながらも不正の克服を積み重ねてきたということでしょう。困難の克服はいつも容易ではありません。大きな勇気と、執念、戦闘が必要です。“Invisible Women”の扉に素晴らしいエールの言葉が書かれています。

“For the women who persist: keep on being bloody difficult”
(執念深い女性たちへ:挫けることなく煩わしいくらい偏屈であれ)


2)ゲーム・チェンジャー

 もちろん、この原稿はデータ・プライバシーに関するコラムなので、話はデータ・プライバシーにつながります。どうつながるか―コロナウィルスです。

 前回はリスク管理という観点からコロナウィルスについて取り上げました。今回はデータ・プライバシーとコロナウィルスについて取り上げましょう。実際、コロナウィルスはゲーム・チェンジャーでした。多くの大企業が在宅勤務に切り替え、日本の仕事の常識-一律同じ時間に出社し、オフィスで8時間以上過ごすものだという常識―をひっくり返してしまいました。それで仕事が停滞するかといえば、製造現場以外では特に停滞することはないでしょう。そもそも「オフィスに毎日出社しなければならない」という考え方に疑問が呈されます。

 報道を見ていて興味深いのは、「在宅では従業員が怠けるのではないか」という「不安」を臆面もなく述べる企業担当者が複数いることです。(そして、その発言に抵抗がないように報道するメディアがあることも…) 従業員を信頼できない日本企業の弱さとナイーブさが透けて見えます。更に興味深いのは、在日の欧米人の間では、「これで日本の生産性も少しは上がるだろう」という意見が出ていることです。在宅勤務ではアウトプットがすべてとなるため、アウトプットがない従業員が淘汰されるということでしょう。生産性が低いとは、即ち時間当たりのアウトプットが少ないということなので、今回の件を通して組織のスリム化実現に期待をしたいところです。

 在宅勤務をさらに進めると、組織の従業員は時間で給与を支払われる必要がなくなるという考え方にもたどり着きます。これは、ある意味、従業員が私のような独立事業者に近づくことを意味します。労使関係にあらたな緊張感をもたらすこととなるこの動きは、歓迎すべき動きでしょう。

 今述べたようなメリットや方向性はコロナウィルスが発生する前から指摘されてきていました。欧米では実際に取り入れられ、機能することも確認されていました。ところが、「監視しなかったら従業員はサボるものだ」、「テレワークは機能しない」という前提のもと、リーダー層の無知と偏見が日本の労働環境を停滞させていました。そのせいで多くの若い労働者が命を絶ちました。これは社会的殺人といってもよい現象です。

 事態は、コロナウィルスの大流行という重大事件で初めて動き始めました。これまでの非常識が常識となりつつあります。コロナウィルスは、企業と従業員との関係を再定義するかもしれません。


3)従業員のプライバシー

 従業員も人間です。従業員には基本的人権がありますし、プライバシーを護られる権利があります。
 コンサルティングを通じて数多くの企業と接して感じるのは、日本企業の従業員はプライバシーがないと感じていることです。実際、日本社会はプライバシーに対する感度が低いといえます。2019年7月に発生したリクナビの内定辞退予測はそれを端的に現しています。閲覧履歴を無断で分析し、勝手に行動を予測し、妥当性も検証せずに未来の行動をゲームでもするかのように決めつけ、雇用予定者にその情報を数百万円で提供したというのは、新卒の大学生を企業の所有物とでも思っていなければなかなかできるものではありません。マネタイズが大好きな日本企業の負の側面が前面にでた事例です。

 日本の雇用環境では、当然のように従業員のプライバシーを侵害している場面が見られます。例えば年に一度実施される定期健康診断がそうです。従業員は会社に当然定期健診結果を提出する義務を負いますが、これは世界に視点を移すと異常なことです。個人の健康データは個人を絶対的弱者としての立場に追いやる可能性があるものであり、本当に必要な場合以外は取得を制限すべきものとみなされるからです。個人を中心に据えるのであれば、力関係の均衡が崩れやすい雇用関係で健康データを雇用主が取得するというのは、望ましいこととは言えません。
 これが可能となる背景を理解するには、日本社会に潜むロジックを探るとよいでしょう。日本の企業は「家族」のようだといわれます。「終身雇用」という仕組みの中、会社や政府が従業員の「親」(保護者)のようにふるまうことが認められてきました。従業員も「子」のように会社や組織、政府に所属し、持ちつ持たれつの独特な関係性が形成されています。人間関係で相手に対する尊敬が最も失われやすい場所は、家庭です。距離が近すぎるあまり、家族の一人ひとりの間にある境界を見失うのです。日本の労使関係は、家族的になりすぎた余り、尊重すべき人と人との間の境界を見失っているようです。
 例えば、今回のコロナウィルス対応で「テレワーク中ずっとビデオ・チャットをオンにすることを義務付けている」企業が出てきたことは、子供がさぼらないように見張っている親のような感覚で行われたのでしょう。企業は従業員管理という自らの利益だけを考え、従業員という個人の家庭でのプライバシーや行動を監視されない権利を想像すらできなかったのでしょう。従業員の方も、給料をもらっているから見張られるのは当然だ、とでも思ったのでしょうか。私はこの報道を見た時、ウォルポール(Horace Walpole(24 September 1717 - 2 March 1797))の次の言葉を思い出しました。

 “The world is a comedy to those who think, a tragedy to those who feel.”
 (世界は考える者にとっては喜劇であり、感じる者にとっては悲劇である)

 日本の従業員のプライバシーの状況は大いに改善の余地があります。これも、従業員が会社の所有物ではなく尊重すべき個人であることに対する無知が生み出した、従業員への偏見がもたらすプライバシー侵害の一例です。


4)テレワークとプライバシー

 いろいろと日本の状況の負の側面について書いてきましたが、だからといって日本がひどい国というわけでもないでしょう。どの国や文化にも不完全な部分はあるものです。日本には日本の不完全な部分があり、欧州には欧州の不完全な部分があるので、深刻になる必要はないでしょう。大切なのは、自分たちの「当然」を相対化し、無知から生じる偏見を少しずつ正すことです。私たちの社会は、そんな風に前進するもののような気がします。

 前段で、コロナウィルスはゲーム・チェンジャーで、日本の企業と従業員の関係を再定義する可能性があると述べました。コロナウィルスは、データ・プライバシーについても進歩をもたらしたように感じます。テレワーク、ホームオフィス、BYOD (Bring Your Own Devices)といった新技術の活用によって、セキュリティやデータ・プライバシーへの認識がより進んだのではないでしょうか。
 例えば、今回、会社のネットワーク環境から切り離されたネットワーク環境で、会社の情報資産を会社と同じレベルで保護する方法についてより深い検討がされたことでしょう。通信プロトコルの定義、大量の外部端末が会社の情報へアクセスする場合のセキュリティ、アクセス権の再定義、暗号技術の導入等ファイルの保管方法、ウィルスへの感染チェック等より頑強なセキュリティ・システムが検討されるようになったかもしれません。性善説に基づいて従業員の監視を放棄した企業があることも複数報告されています。このような動きは従業員モニタリングの在り方について改めて議論を呼び起こすことでしょう。私の家にはアレクサが二台ありますが、スマート・スピーカーの側で仕事を禁止する企業も増える可能性があります。家庭用のWiFiへの接続を禁止し、企業がセキュリティ設定を管理したモバイル・ルーターを活用する企業も増えるかもしれません。

 日本の企業全体がテレワークという新技術に一斉に取り組んだのは大事件というべき出来事です。新技術は、使ってみなければ便利さも問題点も明らかになりません。今回のように多くの人が新技術に触れることで、日本社会は新技術についての経験を一度に加速させ、新たな技術とその使い方に対する蓄積を得たことになります。コミュニケーションの在り方やチーム・ビルディングの在り方も変わることでしょう。経験は、停滞気味だった日本の企業を前進させてくれます。テレワークや在宅勤務はデジタル技術があるからこそ実現可能だったものであり、必然的にセキュリティとデータ・プライバシーへの関心を高めることでしょう。コロナウィルスは恐ろしい病原体ですが、同時に日本に革新の芽ももたらした、と希望を持つことは楽観的過ぎるでしょうか?その答えは、コロナウィルスの流行を抑え込んだ時にわかることでしょう。




第7回 リスク管理(2020/4/15)



1)リスク管理の難しさ

 中国から発症したコロナウィルスは、日本でも瞬く間に広がっています。こういった場合、犯人捜しをしたくなるのは人情ですが、そのようなことをしても感染拡大が生じている事実が変わるわけでもなく、誰かの留飲を下げるくらいの功しか奏しません。
 コロナウィルスの日本での感染拡大は、リスク対応の難しさを如実に示しました。もちろん数多くの不手際もみられ、官僚組織の弊害やリーダーシップの不在という日本特有の問題点もあらためて表面化しましたが、それを脇においてもリスク管理とは難しいものです。16世紀の政治思想家ニコロ・マキャベッリも次のように言っています。
 危険というものは、それがいまだ芽であるうちに正確に実態を把握することは、言うはやさしいが、行うとなると大変に難しいということである  

(塩野七海著「マキャベリ語録」(新潮文庫)p.111)

 このコラムの第5回、第6回ではプライバシーの定義をプライバシー・リスクから検討しましたが、第7回ではこのリスクを管理することについて考えていきましょう。リスク管理とは何を目指し、なぜ今回のように機能不全に陥るのでしょうか。そして、データ・プライバシーでは、このリスク管理をどのように行うのでしょうか。
 ここで述べることは、私の考えであり、教科書的な解説を意図するものではない点をご承知おきください。


2)リスク管理とは何か

 まず、リスク管理という言葉の意味から定義しましょう。リスク管理とは、簡単に言うと「死なないための予防」です。極端と思うかもしれませんが、私たちにとっての究極的なリスクとは「死ぬ」ことです。「死ぬ」とは人が死ぬことも指しますが、象徴的な意味も持ちます。有事が発生した結果組織が解散せざるを得なくなること、都市機能が停止すること、原発が制御不能となること、パンデミックが制御不能となること、といったことはすべてリスクです。そのような状態を回避することがリスク管理の目指すところです。

 リスク管理は「死なないための予防」といいました。リスク管理が目指すのは、リスクをコントロール(管理)することで、リスクがない状態ではありません。私たちは「死ぬ」存在であり、「死ぬ」ことを避けることはできません。私たちができることは、望まない形で「死ぬ」ことをさけることです。リスク管理に関してはいまだにリスク・ゼロを信じている人が多数いるようです。しかし、リスク・ゼロということは「人が死なない」というのと同じぐらい、非現実的なことです。

 今述べた考え方は、リスク管理の考え方に慣れていない方にとっては不自然に感じるかもしれません。少しでも危険が残っているのであれば、それを世の中に出すのは間違っていると思う人もいることでしょう。しかし、私たちの生活にリスクがない状態は存在するでしょうか?たとえば、道を歩かない人はいないと思います。道を歩いているときに不審者に襲われる可能性はゼロではありません。大地震に遭遇して家族を失う可能性はゼロではありません。つまり、私たちの暮らしは、程度の多少はあれ、リスクとともにあるものなのです。

 私たちは、「仕方ない」と受け入れられる範囲でリスクを受け入れ、生きているというのが実態であることを忘れないようにしてください。リスクを意識しすぎると生きていけませんが、リスクがないようにふるまって生きていくのは、賢明な生き方とは言えません。


3)リスク・ゼロの弊害

 リスク管理の考え方はとても大切なので、もう少し説明を続けましょう。リスクがない状態を目指すことが、反ってリスク管理を行うよりも危険な状態をもたらすことも指摘しておきます。  リスクがない状態を目指す姿勢を完璧主義と呼びましょう。  完璧主義は非現実的なだけでなく有害な考え方です。残念ながら、まだまだ広く信奉されています。
 完璧主義にはどのような弊害があるのでしょうか?

 まず、完璧主義は検討項目を増加させ、その結果膨大な作業による人為的なミスを増大させる側面があります。完璧主義で行われる行為は検討項目が増えても、検討にかける期間を変更しないためです。
 次に、完璧主義はミスを許さないため、誤りがあったことを認めなくなります。今回のダイヤモンド・プリンセス号の問題で厚労省が「対応に問題がない」と正当性を主張していますが、このような主張は完璧主義が支配する組織でしばしばみられます。「リスク・アセスメントを行ったうえで、リスクのレベルが政府として十分低いと判断されたため、複数の選択肢の中から現実的かつ乗客の方やご家族の心情を斟酌したうえで対応を行った」とでもいえば、まだ納得性は出ますが、誤りが許されない環境では常に「正解」しか出せないため、断定的な発言が増えます。これは、結果的に誤りを隠蔽し、状況を悪化させます。第二次大戦以前の日本の陸軍がそのような組織でした。
 最後に、これは二つ目の弊害に関連しますが、完璧主義は「怒られないこと」を価値の上位に持ってくるため、言い訳をするための業務も増え、組織の創造力を奪います。組織全体が無責任主義に陥り、ガバナンス体制が崩壊します。東芝の粉飾決算は、この一例でしょう。

 完璧主義は品質向上につながるという考え方もあります。確かに日本の製造業界は長く完璧主義のもと、品質向上を果たしてきました。ところが、一般に目につきにくいところ、特に産業用機械では機能の完璧主義が追求された結果、作業者への安全への配慮が十分されていないケースがしばしばみられます。これは皮肉な話です。日本の工場は、安全第一という号令の下作業者を徹底して管理する傾向があるのに、その作業者が利用する機械での安全性の配慮が欠けているのですから。複雑な状況で検討から重要事項がもれる実例の一つといえます。現場の人間がそれに気づかないわけはありません。しかし、産業機械の場合は、作業者はプロだから自分で身の安全を護り生産に貢献するものという精神論も残念ながら現場には色濃く残っています。欠陥を指摘できないため、精神論で補うしかなくなるのです。この意味で、完璧主義は、精神論を醸成する土壌ともなります。精神論は、使い方を誤れば人を不幸に導きます。第二次大戦中の日本の社会(「欲しがりません、勝つまでは」)や日本の異常な残業習慣はそのことを実例で示しています。


4)現実的なアプローチ

 リスク管理は、こういった副作用を見据えたうえで、より実効性の高い方法、人が幸福であれる状態でリスクに対処しようというものです。具体的には、生じ得るリスクを可能な限り把握し、リスクが実現した(materialize)場合の危害の大きさと、そのようなリスクが発生する可能性(probability)から優先度をつけて対応する、という方法をとります。

 リスクといっても、歩道を歩いていてこけて膝をすりむくという程度のものからストーカー被害にあって殺害されるといった極度のものまであります。こけて膝をすりむく程度であれば歩行者にこけないように注意を促すだけでよいでしょうが、道に穴が開いていて、自転車で通った人が穴で躓き骨折するような事故が発生する可能性があるのであれば穴を埋めることを考えたほうが良いでしょう。もし、このような穴が国中の道路にあいていて、国に予算が十分なくて穴を埋める工事も十分にできないのであれば、人通りの多さをもとに優先度をつけて工事を進めることになるでしょう。たとえば、一日100人以上の人が通る場所の穴をまず埋めるけれども1年に10人も通らないような場所の穴は埋めずに置いておく、といった取捨選択が行われます。

 リスク管理とは、端的に言えば今述べたようなことを行うことです。リスクが現実化した場合の危害を検討し(膝をすりむくのか、それとも骨折するのか)、起こってほしくないリスクができるだけ現実化しないような対策(人通りの多いところの穴は埋めるが人通りがほとんどないところの穴は埋めない)のみに注力します。反対に対策を行わないリスクについては、問題がないと判断し、リスクを受容します。

 ダイヤモンド・プリンセス号の例では、日本は陰性だった乗客を公共交通機関で帰宅させましたが、日本は国として、公共交通機関で帰ることによって生じる感染の拡大のリスクは受容可能と判断したということです。
 一方、アメリカ、カナダ、韓国、オーストラリア、イスラエルは14日間完全隔離するという対応とっています。これらの国はダイヤモンド・プリンセス号の乗客が起点となる感染拡大のリスクを受容できないと判断したようです。
 国の判断はその国民の判断でもあるので、私たちは感染に対して楽観的なスタンスを選択したということになります。その背景には、高い医療水準への自信があるのかもしれません。リスク受容には良し悪しはありません。パンが好きな人がいれば寿司が好きな人がいるように、国や組織、企業によって考え方や姿勢が異なるという「違い」の問題でしかありません。自分の国を導いている政治家や官僚を信じるのであれば、他の国とは違うからと心配する必要はありません。メディアや野党は政府の対応を批判していますが、リスク管理という意味では説明責任の不在を追求すべきでしょう。なぜなら、陰性だった乗客を公共交通機関で帰宅させる際にどのようなリスク・アセスメントをおこなったのか、政府は全く説明していないのですから。


5)説明責任

 リスク受容の結果影響をうける立場の人間としてはなぜそのような判断をしたかの説明が欲しいところです。私たちは水槽の中の金魚ではありません。飼い主(政府)の匙加減一つで全滅してしまうようなことは断じて許容できません。

 リスク対応で透明性(transparency)が重要なのは、その影響を受ける第三者がいるからです。この透明性を高めるために必要なものが説明責任です。私たちに影響を与える誰かが、何を考え、どう判断し、いつ何を行ったのかを明確にされたとき、私たちは初めて、その妥当性や検討の欠如を指摘できます。
 これを記録として残し、衆目に付すことを、説明責任といいます。しごく当たり前なプロセスですが、カルロス・ゴーン氏の事件や最近の企業不祥事をみるにつけ、日本の政府や企業はどうもこの辺りが苦手なようです。

 リスク・アセスメントも人がやる活動ですから、残念ながら誤りから逃れることはできません。検討の欠如はその後の検討に活かすことで、継続的な改善をもくろむことになります。リスク・アセスメントはリスクをゼロにする活動ではなかったことを思い出してください。結局、欠陥を内包していることを理解しつつ、「いまのところ最もまし」な手法として採用されているものだ、という認識は持っておくと役に立つかもしれません。「説明責任さえ果たせば何をやってもいい」というわけではないのです。


6)リスク管理が機能しない理由

 リスクが発生した状態を有事とよび、リスクが少なくとも表面化していない状態を平時と呼びましょう。リスク管理には二つの要素があります。一つ目は有事を発生させないこと、二つ目は有事に適切に行動することです。

 リスク管理は、有事に対しては機能しないことがしばしばあります。少し前に、日本で東電の旧経営陣三名に無罪が言い渡されました。この裁判では「大津波を想定できたか」が一つの争点となりました。彼らは「当時の法規制などは絶対的安全性の確保まで前提にはしていなかった」との理由から無罪となりました。
 リスク管理は、そもそも想定されなかったことに対しては機能しません。

 原発は、規制が非常に厳しい業界で有名です。監査も数多くあり、その必要性は不明ですが言葉遣いの一つひとつまでチェックされます。当然非常時のマニュアル等も整備されています。有事に適切に行動することが計画されていたのです。しかし、福島ではこれが機能しませんでした。原発はメルトダウンを起こし、福島の人々の生活を崩壊させることとなりました。有事とは、想定外の出来事の連続だからです。気付かないうちに当然あるものとして想定していたものが失われたとき、リスク管理は機能しなくなります。

 リスク管理の成熟度とは、想定外がどれだけないのか、また想定外の出来事に対して対応できるしなやかさがどれだけあるのかによって決まります。
 リスク管理は機能しない場合もありますが、それでも重要です。リスク管理によってリスクが物質化する前に抑制できている問題が数多くあるからです。この見えない部分を評価するのを忘れてはいけません。大切なものは目に見えない部分に隠れていることがたくさんあります。


7)データ・プライバシーとリスク管理

 データ・プライバシーでは、プライバシー・リスクにたいして、プライバシー影響評価 (Privacy Impact Assessment, PIA)を実施します。この方法は拙著で詳述しましたので参照してください。個人データを処理することによって生じるプライバシー・リスクを評価したうえで、必要な対策を定めるという意味で、リスク・アセスメントと同義です。GDPRではDPIA (Data Privacy Impact Assessment)という言葉を用いています。PIA/DPIAはすべての個人データ処理に対して行うのではなく、特にプライバシー・リスクが高いと考えられる場合に実施するように推奨されています。特にプライバシー・リスクが高いものについては法律で定められている場合もありますが、一般にAIを用いた個人データ処理や信用スコアや金融情報を扱った個人データ処理、子どものデータを扱った処理、大規模な監視データを扱った個人データ処理といったものが該当します。当然説明責任も求められるため、PIA/DPIAの結果は文書として残します。昨年のある調査結果によると、DPIAの実施数が5件以下という組織調査対象の5割程度でした。現時点ではそれほど頻繁に行うものではないという認識のようです。

 リスク管理という考え方は今、特に国外では一般的な考え方となってきています。そのポイントは分析を行い、分析結果について説明責任を果たすことです。「説明できればいい」と開き直るのではなく、自分たちの行う行為がどのような結果をもたらすかを考えたうえで、施策を選択するようにしたいものです。



第6回 コロナウィルスとデータ・プライバシー~(2020/3/30)



1)監視社会の功罪

 WHOは3月12日にコロナウィルスの世界的流行をパンデミックと認定し、コロナウィルスは予断を許さない状況となっています。WHOによると子供や若い人の場合、感染しても重症化することはあまりないということです。ただ死者が出ているように、重体になることもあり、5人に1人は病院での治療が必要となる可能性があるといいます。
 日本でも感染者数が増え、学校が閉鎖される、企業が在宅勤務を進める、テーマパークが閉鎖する等目に見える形で影響が出ているため、大きな不安を感じます。人の流れが停滞することによって生じる経済への影響も甚大なものです。東京五輪の開催も危ぶまれています。
 そんな中、中国はいち早く抑え込みに成功したと発表しました。日本のメディアは「いつもの嘘にきまっている」とでも言いたいような様子で報道していますが、中国に在住する中国人や中国人以外の友人の話を聞いていると、確実に鎮静化している雰囲気が伝わってきます。中国は8万人を超える感染者と3000人を超える死者を出しました。増え続ける数字を横目に見ながら、中国政府は都市の封鎖を行い、春節の休暇を延期し、徹底して人の往来を管理しました。これが功を奏したようです。中国は今、国内の感染拡大抑制ではなく、国外からの感染者の流入を懸念しています。対策が新たな段階に入ったということでしょう。非常事には強いリーダーシップが有効だということを目にした思いです。
 中国のリーダーシップは、管理社会、監視社会といわれる社会だからこそ実現したものともいわれます。強権による支配は快適ではありません。管理社会や監視社会は平常時、人の幸福を奪うものとして忌避されますが、非常時には役に立ち、中国の人々もそれを評価している様子です。
 では、私たちは、こういう非常時を想定し、管理社会、監視社会を可能とする世界に生きるのが良いのでしょうか。これは、答えるのが困難な問いです。
 今回はコロナウィルスを足掛かりにプライバシーのジレンマについて話をしていきましょう。


2)平常時と非常時

 政府はパンデミックが収まるまで、人々の通信やISPデータを監視、管理する権利を持つべきでしょうか?政府は感染拡大を抑止する多国間連携のために、例えば入国者に対して、その人物の行動履歴が国境で共有されることは合理的な判断といえるでしょうか?空港、職場での症状を監視する、または都市全域で外出禁止違反がないように監視を行うといったことは許されることでしょうか?ワクチンや治療法開発のため、診療データを組織や研究者に開放すべきでしょうか?

 これらは、非常時であれば仕方ないと理解を示される可能性もあります。非常時の行動は平常時の考え方と異なる論理が必要となります。今回はコロナウィルスでの対応は、非常時の行動がいかに平常時の行動からかけ離れたものとなるかを照らし出しました。

 パンデミックが発表される1週間ほど前の3月6日、世界に5,5000人の会員を擁するプライバシーの専門家のためのNPOであるIAPP「公共の利益とプライバシーのバランス」と題した記事を公開しました。この記事によると、2018年、国連のグローバルパルスというイニシアチブを率いていたRobert Kirkpatrick氏が、「データの誤用(misuse)を防ぐと同時に飢饉、疾病、戦争対策で活用できるのに活用できなかったというデータの未使用(missed use)があってもならない」と指摘していました。

 中国ではドローンを飛ばして監視する、薬やマスク、解熱剤を買う際には実名と国民番号を登録させる、バスやタクシー、電車に乗る際には国民一人ひとりにQRコードを読み込ませ移動データをもとに国民一人ひとりが色分けされた一意のQRコードを持つようになる、といったことがされているそうです。シンガポールでも、コロナウィルスのケースをダッシュボードで管理し、感染者の住んでいた場所や職場、診察を受けた病院、時系列でのケースの発生履歴を視覚化しているサイトがあり、コロナウィルスに関するデータを詳細に管理、公表しています。これらは個人データを公衆衛生のために最大限有効活用した事例と理解できます。中国に住む複数の友人は、「中国は今、世界で一番コロナウィルスに対して安全な場所となっている」と肯定的にとらえていました。平常時の考え方から言えば、QRコードによる個人の感染リスク分類の正確度がどのように担保されているかという点は慎重に検討する必要がある内容でしょうし、感染者の分布をウェブサイトで公表することがその地域に住む人々に悪影響を及ぼす危険を伴います。迅速に実行に移されることは通常はありません。それでも実行されるのが非常時です。

 しかし、これらのことが恒常的に許容されるものではないことも忘れてはいけません。データ・プライバシーは公共の利益と個人の尊厳、自由との間のバランスを常に問うものだからです。


3)個人データの倫理的利用とリーダーシップ

 個人データは倫理的に利用されなければなりません。ドローンを飛ばして監視するにしても、個人の私的空間を監視しないルールが必要となります。薬の購入履歴を国家が実名で監督することはそもそも行うべきことではないでしょう。QRコードの色分けで個人を分類する場合は、その正確性に対する確認や分類による個人への実害を防ぐ配慮が必要です。非常時の対応は、例えば期限付きで実施するための暫定法を立案する等、迅速かつ限定的な対応をしたいところです。
 その一方で、今回のコロナウィルスの事例が示した通り、行き過ぎた感のある試みが高い実効性を持つことも確かにあります。その場合、「行き過ぎ」といわれる行動であってもcapabilityとして持っておくことが賢明という判断もあり得ます。AIの分野ではSandboxという試みがされていますが、法的に保護された範囲内で新たな試みを行い、技術の可能性を模索する必要もあるといえるでしょう。

 いずれにせよ、こういった判断は複雑で、緻密なものとなるためリーダーの資質に依存し、一般化しにくいものです。中国では感染の疑いがないものまで公安に呼び止められ隔離されるということが起きていましたが、これは避けられない帰結でしょう。複雑な命令を大規模に上意下達で行うことは不可能だからです。命令は組織の末端に行けば行くほど単純化され、重要な要素が抜け落ちていくものです。従って、リーダーが行う判断は注意深いものである必要がありますし、より緻密で、かつ一般に展開可能なものである必要があります。リーダーの発信するメッセージがポイントを抑えていれば、組織の末端に至った時に起こる情報の希釈も大切な要素を損なわないからです。
 データ・プライバシーも最後はリーダー次第といえます。優れた倫理感と果敢な判断力、行動力を備え、かつ明確なメッセージを発することができるようなリーダーが必要なのです。私たちは、組織にも、国にも、賢明で聡明で勇敢で、高い倫理観を備えたリーダーを養成しなければなりません。



第5回 プライバシーとは何か?(1)(2020/3/13)



 これまで4回にわたってプライバシーにまつわる話題を取り上げ、プライバシーが身近な問題であることを伝えてきましたが、今回と次回はプライバシーとは何かについて少し詳しく考えてみましょう。プライバシーの多面性が見えてくることと思います。


1)Facebookにあげた写真

 ある若い男性のケース・スタディです。男性には素敵なガールフレンドがいます。二人は夏、ビーチに出かけ思い出にたくさん写真を撮りました。写真の中のガールフレンドは露出の多いモデルのようなビキニ姿です。男性はその写真をFacebookにあげました。
 休暇が終わり職場に戻った男性は、仲の良い同僚の席を見て驚きました。友人は男性がFacebookにあげたガールフレンドのビキニ姿の写真を印刷して壁に貼っていたのです。男性は同僚に言います。
 「これ、何?なぜ僕のガールフレンドの写真をはっているんだ?」
 同僚は答えます。
 「なぜって、君はFacebookに公開していたじゃない?皆が見て楽しめるように。すごくいい写真だから印刷して壁にはったんだ」
 男性は憮然としてガールフレンドの写真をはがし、捨てるように言いました。同僚は「怒らせるつもりはなかった」と弁解しながら写真を廃棄してくれました。
 次の日、男性が職場に行くと、同僚のパソコン上にガールフレンドの写真へのショートカットがあるのを見つけました。男性は同僚の顔をまじまじと見つめながら言います。
 「悪い冗談はやめてくれ。昨日の話を忘れたのかい?」
 同僚は驚いた顔をして答えます。
 「何を怒ってるんだ?僕は何もしてないじゃないか?写真はFacebook上にあるものだよ」
 男性はかんかんになって言います。「とにかくやめてくれ。リンクを消すんだ」
 同僚はまた、「君を怒らせるつもりはないんだ」といいながらリンクを消してくれました。
 翌日、男性は同僚が自分のFacebookを見ているのを目にしました。男性にはこれ以上何も言うことはできませんでした。


2)文脈としてのプライバシー

 Facebook上にあげた写真は確かに友達や知人と共有するためかもしれません。理屈(「公開されているものを、気に入った雑誌の写真を切ってはるように印刷してはっただけだ」)からすると、職場の同僚がしたことは、筋は通っています。しかし、褒められた行動ではなかったことは確かです。Facebookで情報を公開しているからといって、それに対して何を行ってもよいというわけではありません。公開された情報の裏にある、暗黙の期待を裏切らないことこそがプライバシーの本質なのです。
 コーネル技術大学のヘレン・ニーゼンバウム教授(Dr. Helen Nissenbaum)は、これを「文脈上の誠実さ」(Contextual Integrity)と呼んでいます。Nissenbaum教授は次のように言っています。

 “What people care most about is not simply restricting the flow of information but ensuring that it flows appropriately”
 (人が最も気にかけるのは、単純に情報の流れを「制限」することではなく、情報の流れが「適切」であることだ)

 この視点は非常に重要です。InstagramやTwitterが流行するのは、私たちが自分たちのことを共有したいからです。1890年に著名な論文”The Right to Privacy”でプライバシーとは「一人でいられる権利」(right to be left alone)と定義したのはルイス・ブランダイス教授(Dr.Louis Brandeis)とサミュエル・ウォーレン教授(Dr.Samuel Warren)でしたが、私たちは一人でいたいと思うと同時に、何かを共有したい存在でもあることを忘れてはなりません。思春期の頃、仲の良い友達と秘密を共有して楽しんだ思い出は誰もがあることでしょう。私たちは自分のことを共有することが大好きなのです。プライバシーというとき、私たちは誰もが、共有した情報が適切に扱われることを期待していることを忘れてはなりません。


3)プライバシーへの期待

 プライバシーの在り方には文脈が関係しているということは、換言すれば、提供した情報に対する期待が文脈によって異なっているということです。このプライバシーへの期待の在り方を分類した研究者がいます。2013年に亡くなった方ですが、コロンビア大学のアラン・ウェスティン教授(Dr.Alan Westin)です。ウェスティン教授はプライバシーへの期待を大きく四つに分類しました。その分類をあえて翻訳すると、孤立(solitude)、親密(intimacy)、匿名(anonymity)、確保(reserve)となります。
 孤立(solitude)とは”right to be left alone”と同義です。個人が一人だけでいること、集団から離れて一人だけであること、他の人の目を気にする必要がないことを指します。英語でautonomy(自分だけの領域)ということがありますが、autonomyを保証されている空間です。
 親密(intimacy)とは親密な間柄だけにとどめることです。個人は小さなグループや集団の一部であり、信頼関係の下、情報の共有が行われ、秘密の約束がされる空間です。「二人だけの秘密」や入会制限の厳しい会員制コミュニティが該当します。
 匿名(anonymity)とは公共の場で身元の特定や監視されない状態のことです。個人は公共の場に参加しつつ、特定されないことを望みます。インターネット空間のコメント欄が代表例でしょう。
 確保(reserve)とは他人に土足で踏み込まれないための心理的な「逃げ場所」を作ることができることです。個人は大きなグループの一員でありつつ、コミュニケーションを停止することや、やり取りを停止する自由を選択できる状態を指します。

 冒頭のFacebookの例では分類四つ目の「確保」(reserve)が失われたため、男性のプライバシーを侵害したといえるでしょう。プライバシーとは、個人がもつ自分の情報への期待である、という点を忘れてはいけません。プライバシーを大切にするということは、個人の期待を裏切らないこと、即ち、信頼を裏切らないことです。

 参考までに、データ・プライバシーにかかわるときには、処理に対する個人の期待も織り込んでオペレーションやシステムを設計しなければなりません。ウェスティン教授の分類は、プライバシーに対する個人の期待を検討する際に役に立つものです。


4)プライバシーとリスク

 プライバシーの侵害は突き詰めると、個人への危害につながります。現代のデータ・プライバシーの問題は、リスクのマテリアル化/物質化(materialize)を予防することに収れんしているため、プライバシーとリスクとを結びつけて考えるアプローチも数多くされています。このアプローチで最も有名なのが、ジョージ・ワシントン法科大学のダニエル・J・ソルブ教授(Dr.Daniel J. Solve)です。ソルブ教授のプライバシーの分類(taxonomy of privacy)では、プライバシー違反を生じる活動やメカニズムを軸にプライバシーを定義しています。
 ソルブス教授が軸とした活動は(1)情報の取得(Information Collection)、(2)情報の処理(Information Processing)、(3)情報の拡散(Information Dissemination)、(4)侵害(Invasion)です。ソルブス教授はこれらの主要な活動を更に小分類に分類しながら、各活動が内包する問題とその活動がなぜ問題となるのかについて分析しています。(詳しくは拙著「プライバシーの教科書」を参照ください)
 少し専門的な話をすると、プライバシー・リスクの分類は、データ・プライバシー対応でプライバシー・リスクの評価をする際に評価基準として活用できます。

 ワシントン法科大学のライアン・カロ教授(Dr.Ryan Calo)はその論文”The Boundary of Privacy Harms”(「プライバシーによる危害の境界」)でプライバシーによって生じる危害を「主観的危害」(subjective harm)と「客観的危害」(objective harm)に分類しています。
 主観的危害とは、望まぬ観察にさらされている状態をいいます。個人は不安や羞恥心、恐れといった心理的な負担を強いられます。日本の入管が行っているビデオ監視はこの主観的危害に該当します。
 客観的危害とは個人に関する情報を意図せぬ形または強制的に使用される状態をいいます。IDの盗難や飲酒運転の検査でアルコール検知器を使用することといったことが含まれます。
 プライバシーとは何かを直接的に定義するものではありませんが、プライバシー侵害によって生じる危害という観点からプライバシーへの配慮を行う上では役に立つ視点を提供してくれます。こちらも、プライバシーにまつわるリスクを評価する際に、評価基準として活用できるものです。


5)プライバシーの難しさ

 ここまで様々な視点からプライバシーとは何かについてみてきましたが、いかがでしたでしょうか?よけいわからなくなったという人も多いかもしれません。プライバシーとは一義的に定義するにはあまりにも多くの側面を持っているように感じます。ニーゼンバウム教授が指摘するように、プライバシー保護のためには個人を切り離せばよいというわけではありません。情報の「適切」な共有をこそ、私たちは求めているのですから。
 では、情報を「適切」にコントロールできれば良いのでしょうか?
 冒頭のFacebookの例では「友達」だけに共有するというコントロールをしていたかもしれませんが、「印刷することを禁じる」、「直接リンクすることを禁じる」というコントロールがなかったために不十分なプライバシー保護状態となっていました。しかし、「共有範囲を定義し、印刷の可否も定め、直接リンクをはることも禁じる」というような緻密なコントロールは現実的な選択肢とはいえません。多くの場合、私たちは詳細な設定などせずにデフォルト設定をそのまま使ってしまうことでしょう。

 プライバシーの難しさは、多面性とコントロールの困難さにあります。ひとつだけ救いがあるとすれば、プライバシーはすべて「個人」に結びつくということです。「個人」が危害を被ることはしない、という指針さえあれば、プライバシーの問題の多くは対応可能なのです。

 私たちプライバシーの専門家は今、「技術的に可能だからといってやっていいというわけではない」ということが増えてきました。デジタル化の躍進が目覚ましい今日、衣服とネットがつながる、AIと婚活が連動する、位置情報と広告が連携する等、デジタル技術を駆使した様々な試みが行われています。それをイノベーションと呼び持ち上げるのは自由ですが、同時に人間的な視点がなければ気候変動のように大きな害を人類にもたらすことでしょう。できることならデジタル技術をうまく活用して明るい未来を築きたいと思います。
 今回の続編(プライバシーとは何か?(2))はそんなことを考えるケース・スタディを用いてプライバシーとは何かについてもう一度考えてみたいと思います。

 尚、次回からの3回については下記を予定しております。
  第6回 コロナウィルスとデータ・プライバシー *3月30日公開予定
  第7回 リスク管理 *4月15日公開予定
  第8回 Facts Uncovered *4月30日公開予定

 よって「プライバシーとは何か?(2)」は第9回(*5月15日公開予定)となります。



第4回 AIとデータ・プライバシー(2020/3/2)



1)弱いAI(“weak” AI)」と「強いAI(“strong” AI)

 2001年にスティーブン・スピルバーグ監督が公開した映画『AI』ではロボットが人間のように話し、動いていました。いわゆる意識を持ったロボットです。日本でも「鉄腕アトム」や「ドラえもん」でなじみのある、人間のようなロボットをAIだと認識している人は多いのではないでしょうか。ところが、最近新聞をにぎわしているAIは少し異なった意味で使われています。今回の連載ではまず、AIとは何かについて整理することから始めましょう。

 AIという言葉はとても広い意味を持っています。一例として、アメリカが法令に成文化した定義を見てみましょう。(Section 238(g) of the John S. McCain National Defense Authorization Act for Fiscal Year 2019, Pub. L. No. 115-232, 132 Stat. 1636, 1695 (Aug.13, 2018)(codified at 10 U.S.C §2358, note)

 (1) Any artificial system that performs tasks under varying and unpredictable circumstances without significant human oversight, or that can learn from experience and improve performance when exposed to data sets.
 (多様でかつ予測不能の状況で、人間が積極的に監督することなくタスクをこなす人工システム、またはデータ・セットを与えられれば経験から学びパフォーマンスを改善することができる人工システム)
 (2) An artificial system developed in computer software, physical hardware, or another context that solves tasks requiring human-like perception, cognition, planning, learning, communication, or physical action.
 (人間に近い知覚、認知、計画、学習、コミュニケーション、物理的行動が必要なタスクをこなす、コンピュータ・ソフトウェア、物理ハードウェア、または類似のものに組み込まれた人工システム)
 (3) An artificial system designed to think or act like a human, including cognitive architectures and neural networks.
 (認知アーキテクチャ、ニューラル・ネットワークを含む、人間のように考え行動するように設計された人工システム)
 (4) A set of techniques, including machine learning, that is designed to approximate a cognitive task.
 (認知タスクを近似するように設計された、マシン・ラーニングを含む技術)
 (5) An artificial system designed to act rationally, including an intelligent software agent or embodied robot that achieves goals using perception, planning, reasoning, learning, communicating, decision-making, and acting.
 (知覚、計画、合理化、学習、コミュニケーション、意思決定、行動によって目標を達成する、知性を持ったソフトウェア・エージェントまたは実態のあるロボットを含む、合理的に行動するように設計された人工システム)

 このように、AIには「人間の監視なしでタスクをこなす」というシンプルなものから「合理的に行動するように設計された人工システム」まで幅広いものがあります。
 アメリカの哲学者であるJohn Searl博士は、AIを「弱いAI(“weak” AI)」、「強いAI(“strong” AI)」と分類しています。「弱いAI」とは、ある特定のタスクを自動でこなせるものを指し、「強いAI」とは、認知能力をもち一般的なタスクをこなすことができるものを指します。たとえば迷惑メールのフィルタリング、アマゾン等のショッピングサイトで提示されるオススメ商品の表示、自動運転といったものは「弱いAI」に該当し、冒頭で紹介したロボットは「強いAI」に分類されます。現在世の中にあるのは「弱いAI」であり、「強いAI」はまだ開発されていません。


2)AIは人間の意識の反映

 「弱いAI」の特徴は、ビッグ・データによってトレーニングされることです。
 トレーニングとはプログラムに「学習」させることです。では、AIは何を「学習」するのでしょうか。それは、ビッグ・データに織り込まれたパターンです。AIはインプットされたビッグ・データをプログラムに従って分析し、パターン化します。パターン化された結果はプログラムの判定の「基準」として学習され、新たなデータをインプットされた際、AIのプログラムは自ら作成した「基準」に基づいて判定を行います。
 AIが行っていることは、かなり粗っぽく言えば以上のような内容になります。
 プログラムを組んだことがある人やシミュレーションを作ったことがある人ならわかると思いますが、プログラムやシミュレーションの結果は作った人の意図をかなり反映できます。今話題になっているAIが「弱いAI」であるということは、AIを作成した人が「妥当」とみなした結果を正としている、という点も見落としてはいけません。

 具体例を見てみましょう。例えば顔認識技術についての興味深い研究があります。この研究では、欧米でトレーニングされたAIはアジア人の顔の誤認率が高いけれどもアジアでトレーニングされたAIはアジア人の誤認率は低いという報告がされています。これが意味することは、第一にビッグ・データといえども情報の偏りがあることです。AIとは偏りのあるデータをもとに学習し、偏りのある基準をベースとしてものごとを判定している可能性があるという点を忘れてはなりません。第二に、「十分トレーニングされた」という判断基準が、欧米とアジアでずれているということです。つまり、AIによって文化の違いや「正しさ」のブレが強化される可能性があるということです。AIによって自動化された意思決定は、ビッグ・データによって条件付けされた「正しさ」を促進することでしょう。しかし、それはひょっとすると私たちの社会が持つ多様性を排除する要因となるかもしれません。


3)AIとデータ・プライバシー

 AIとデータ・プライバシーとはどのように関係しているのでしょうか?この話をするためには、プライバシーとは何かについて考えなければなりません。

 プライバシーとは何か、というのは非常に大きな質問(big question)です。今回はAIが主題なので簡単に触れるだけとしておきますが、回答はいくつかあります。
 まず、プライバシーとは、一人でいることができる権利(“right to be left alone”)と定義できます。一人でいることができること、誰にも干渉されることなく何かを決められることは、生きていくためには思っている以上に大切です。誰かにずっと見られているという状態では人は委縮し、本当の自分でいられなくなります。少し前の日本の農村がそうでした。私の大学の教授は、「田舎とは自分の成績が見せたわけでもないのに就業式の当日に知れ渡っている場所だ」といっていました。これでは息が詰まります。
 別の答えとしては、プライバシーとは自分が公表した自分に関する情報をコントロールできること、というものがあります。例えばオンライン・ショップでの購買履歴を公表する範囲は購入したショップだけとし、オンライン広告業者には開示したくないというのも、プライバシーの一つです。または、昔公表していたブログやSNSに掲載していた内容を完全に削除できることや、見ることができる人を限定することができるといったことも大切なことでしょう。人は時とともに考え方や関心を変えていきます。そのため、自分について公表したいことも変わるものです。自分が公表したいことだけが世の中に出ているというのは、人が最善の自分でいられるために大切な条件の一つです。
 もう一つだけ紹介しておきましょう。これは、最近ケンブリッジ・アナリティカの問題で明らかになったものですが、人は情報の与えられ方で思想や行動をコントロールされる存在です。プライバシーとは、偏ったソースに依ることなしに意思決定ができる自由だともいえます。

 AIがもつデータ・プライバシーと関連した問題は多くのものが報告されていますが、今回は二つ紹介します。
 まず、AIが行う意思決定の問題です。AIの意思決定はビッグ・データとして与えられたデータ・セットに条件づけられた判定基準によって行われるため、ビッグ・データによって色づけられた結果しかないことになります。この場合、AIによって行われる意思決定の対象となる個人はAIを設計した人々の意図に従った決定に従うような圧力をうけることとなります。人は公平に扱われる権利があります。不当に偏った判定基準に従うというのは、人の権利と自由を著しく損なうことといってよいでしょう。

 もう一つの問題は、AIによる監視です。
 今欧米では顔認識技術が大問題となっています。NYタイムズ紙が2020年1月18日に行った報告によると、AIがある殺人事件をわずか20分で解決してしまったといいます。この事件は2019年の2月にアメリカのインディアナ州で発生しました。犯人は犯罪履歴のない人物で、また、運転免許所ももっていなかったといいます。このような場合、従来は捜査に時間がかっていたそうです。しかし、たまたま目撃者が犯人の顔写真を撮っていたため、AIを使用してSNS等ネット上で公開されている写真をスキャンし、人物を特定できたということです。
 今回のケースは殺人事件でしたが、これが思想警察による捜査だったらどうでしょうか?私たちはまさに、ジョージ・オーウェルの1984年の世界に住むことになります。今はIoTや監視カメラの普及によってあらゆる場所がインターネットを通じてつながるようになっています。このネットワークにAIが加わることで、巨大な監視システムが生まれることになります。AIは、私たちが常に国家や権力によって「見られている」状態を生み出しつつあるのです。国家や権力は、不都合な事実が生じた場合、国民を躊躇なく「消す」ことが可能です。共産主義国でよく起きていた、家族や人物が「蒸発」するということが身近に起きる世界にはたして読者の皆さんは住みたいでしょうか。AIとインターネット網の発達は、私たちが大切にしている民主主義の根本を揺るがす脅威をもたらしつつあるといっても過言はないでしょう。


4)批判的な視点を常に持つ

 私たちは常に批判的な視点を持ちながら技術や出来事に接する必要があります。新技術のすばらしさや出来事のすばらしさ、効用が喧伝される際には(特に華々しく持ち上げられている場合には)情報を流す人々の意図を忘れてはいけません。新しい技術を使用すべきではないというのではなく、新しい技術の持つ問題点をまず把握したうえで、現時点でできる対策を行ったうえで利用するということが重要です。残念ながら現在のIoT製品はセキュリティ対策、通信方法、プログラムの更新可能性等といった面で多くの問題を抱えています。2019年に発生したリクナビの事件とその後のリクナビの弁明をみてわかるように、現在の日本の企業はデータ・プライバシーについて、根本的な欠陥を抱えています。
 市民は製品を提供する市民に対して厳しい監視を行う必要があるでしょう。一方、企業はSecurity by DesignとPrivacy by Designといったコンセプトを取り入れることで、少しでも安全な製品/システム開発を行うよう仕事の仕方を変更する必要があります。データ・プライバシーやセキュリティについての事故は企業の信頼(Trust)の問題となるため、Security by DesignやPrivacy by Designはもはやコンプライアンスの問題ではなくビジネス・リスクとしてとらえることが妥当でしょう。もちろん、各企業にセキュリティの専門家やデータ・プライバシーの専門家を配備しておくことが重要なことは言うまでもありません。世界の市場での競争力を失わないためにも、時代の要望に迅速に対応をしていきたいものです。



第3回 信頼(Trust)と懸念(Concern)(2020/2/14)



1)Thanks for being my friend!

 以前私の会社でアルバイトをしてくれていた留学生がいます。名前を仮にJudyとしておきます。Judyは母国での仕事を辞めて日本の社会人大学院に留学してきました。2年間で晴れて卒業し、今は東京の会社で就職しています。今でも連絡を取っていて、東京出張の折に時間があった時は一緒にランチをしたりしています。
 ある日、彼女に”I enjoy talking with you. Thanks for being my friend!” (君と話していると面白いよ。友達でいてくれてありがとう!) と、メッセージを入れました。実際、Judyは知的好奇心が強く、デジタル・マーケティングの世界で仕事をしながらプライバシーの問題を含めて様々な話題を提供してくれます。私にとっても刺激をもらえる貴重な話し相手です。
 私のメッセージへのJudyの返信は”You made my day!” (感動!)でした。

 人を勇気づけるポジティブなメッセージ(encouraging message)は、たった一言二言でも大きな違いをもたらすことがあります。「ありがとう」という言葉でも、「話せてよかった」という言葉でも、「本当にそうだね」という一言でも、時に言葉は大きな力を持つものです。

 こういった言葉は口にだして言いにくいものです。だから人は、昔からメッセージ・カード等を使って伝えてきました。映画『ラブ・アクチュアリー』のマークがジュリエットに送ったメッセージ・カードのシーンは感動的ですが、私も妻にクリスマス・プレゼントと一緒に感謝の気持ちをメッセージ・カードに添えて渡したことがあります。その後、カードは捨てられるかと思いきや数年たってもリビングの収納の一画に飾られています。

 今はインターネットのおかげでメッセージ・ツールやemailをつかえば簡単に言葉を送ることができます。身近な人や仕事をする仲間に、こんなメッセージをより手軽に、いつでも思いついたとき送付してみたらどうでしょうか。欧米の人たちと仕事をすると、”thank you” (ありがとう)や”agree (そうだね)”といった肯定的な言葉が多く飛び交います。せっかく手軽にメッセージを送ることができるのですから、彼らに倣ってできるだけ相手が元気になるような言葉を選んでメッセージを送りたいものです。

 「憎しみのあるところには愛を、いさかいのあるところには赦しを(where there is hatred, let me sow love / where there is injury, pardon)」といったのは聖フランシスコですが、ぜひ身近な人に感謝や愛情を伝えてください。「きれいだね」、「よくできたね」、「素晴らしい」、「頼んでよかった」といったそんな言葉が相手の一日を気持ちの良いものに変えてくれるのですから。


2)Alexa、録音しているの?

 私の家にはAlexaが2台もあります。出張時に子どもたちとの電話代わりに使う他、普段は音楽を流すために使っています。その他、AlexaではAmazonで買い物をすると配送物と配送予定日が通知されます。クリスマス・シーズンには配達内容物を伝えないようにする配慮もあって、なかなか粋なはからいもしてくれます。
 Alexaを使っていると急に「すみません、よく聞き取れませんでした」とAlexaがいうことがあります。とくに会話をしていると反応する可能性があるため、家で会議をする場合はマイクをオフにしておかなければなりません。

 マイクが常にオンになっているというのは少し気持ちが悪いものです。もしマイクが拾った音声をすべて第三者が聞ける状態になっていたとしたら、家というプライベートな空間での会話の内容がすべて筒抜けということです。常にだれかが話を聞いていると考えると自由に話すことができないと考える人も多いでしょう。
 Alexaにこう聞いてみました。

 「Alexa、録音しているの?」

 回答はこうでした。
 「ボタンを押して私に話しかける時だけ録音しています。私はウェイクワードを聞き取った時だけ音声データをアマゾン・クラウドに送っています。詳しくはAlexaプライバシー規約をご参照ください」

 Alexaをはじめとするスマート・スピーカーと呼ばれるデバイスは、音声でコントロールするため、常にマイクがオンとなっています。そして、「Alexa」だとか「okay google」といった「ウェイクワード」というものを聞き取った時に録音機能を開始してやり取りを記録します。Alexaのプライバシーに関するFAQによると、記録した音声情報は次のように活用されるということです。

 『機械学習を通じた音声認識および自然言語認識機能のトレーニングに利用されます。幅広いお客様からの日常生活を通じたリクエストを用いてAlexaをトレーニングすることは、お客様によって異なる会話のパターン、方言、アクセントや単語およびお客様がAlexaをご利用される際の音響環境に対してAlexaが正確に応答するために必要となります』(Alexa、Echoシリーズ端末及びプライバシーに関するFAQ)

 ここからは読み取れませんが、Amazonに関しては音声データをアマゾンの従業員が聞いてタグ付け等をしていると報じられています。すべてのデータではありませんが、Alexaで録音されクラウドに保管されたデータは見知らぬ誰かが聞いているようです。実は、Amazonに限らずAppleやGoogleも同様の作業を行っていることがわかっています。
 残念ながらタグ付けをすることで精度を向上させるというのは、機械学習結果を向上させるためには欠かせないプロセスです。(文字での検索結果についてもGoogleは人の手によるタグ付けをして調整を行っています。)変化と競争が激しい時代、各社はスマート・スピーカーの精度向上を目指してしのぎを削っています。開発スピードを向上するための企業努力が行われるというのは理解できることです。
 データ・プライバシーでは、そういう時代背景を理解しつつ個人が許容できるバランス・ポイント(happy balancing point)を模索しています。


3)信頼(Trust)と懸念(Concern)との間で

 データ・プライバシーとは私たちの得る利益と私たち個人の幸福との間でのバランスをとることです。
 冒頭のテキスト・メッセージのように、テクノロジーは私たちに新たな可能性ももたらし、うまく使うことでよりよい世界を生み出すことさえも可能です。二つ目の話題として取り上げたAlexaにしても、スピーカーと会話ができるというのはなかなか愉快な発想です。私の子どもたちはAlexaと会話を試みてトンチンカンな回答を聞いて大笑いしたりしています。
 忘れてはいけないのは、Alexaにしても、前回取り上げた睡眠アプリにしても、私たちは問題があると知っていても使い続けているのです。

 結局、私たち消費者にできることとはデータを使用する企業や組織、政府を信頼(Trust)することだけです。悪意を持ったことはしないだろうと思うから、企業や組織、政府に自分のデータを渡すのです。ところが、データを使用する側はしばしばその期待を裏切り、「行き過ぎた」ことをしてしまいます。しかも、その「行き過ぎた」行動をそうとは認識していないことがよくあります。アウシュビッツの監囚が家庭では良き父親であり母親であったということはよく知られていますが、当事者になると状況に慣れてしまい、何が「良いこと」で何が「行き過ぎたこと」であるのかが判断がつかなくなるのです。企業の不正会計やコンプライアンス違反のほとんどは「こんなものだ」、「これくらい大丈夫」という感覚でなされ、大した罪の意識もなく行われていることを忘れてはいけません。

 消費者が使用する側の逸脱に対してとれる行動は懸念(Concern)を示すことでしょう。残念ながら身を護るためには使用する側を規制しなければならないのです。方法の一つが、私たちが選んだ代表からなる政治家による立法です。法律によって使用する側を規制することで、私たち個人の幸福を確保するのです。GDPRをはじめとするデータ・プライバシーの法律はこういった文脈で理解しなければ正しく理解できません。
 この文脈を正しく理解したならば、データを使用する側が最も重視すべきものは消費者の信頼(Trust)となることは当然の帰結かと思います。データ・プライバシー対応は、したがって「コンプライアンス」対応という画一的なものとなるべきではありませんし、「セキュリティ」対応という技術面を重視したものであってもいけません。データ・プライバシー対応は、消費者から信頼を得るために何ができるかを問い、実行するための行動となっているのがあるべき姿です。個人的には、GDPR対応以来の日本の企業や弁護士さんたちには、この点を再検討する余地があるように感じています。


第2回 気付かぬうちに失うプライバシー(2020/1/30)



1)私の寝息を録音するのはだれ?

 2019年5月のことです。アメリカのポッドキャストを聞いていると奇妙な相談が寄せられていました。それは、アップル・ウォッチでダウンロードした睡眠アプリについての相談でした。睡眠アプリには「オーディオ記録」というメニューがあり、開くとメールの未読数を通知するメッセージとよく似た表示で「音声ファイルが298件あります」というメッセージが表示されたそうです。音声ファイルの再生ボタンを押すと「プレミアム会員のみ」の機能であることが通知され、「各睡眠セッションでの重要なオーディオ記録を聞いてみましょう。今すぐプレミアム会員に登録」というメッセージが現れたといいます。

 睡眠アプリは、ベッドの中でユーザーの眠っている間の音を録音し、しかもユーザーは、自分の睡眠中の音を聞くために料金を払わなければならないというわけです。


2)気付かぬうちに失うプライバシー

 自分が何をしているかわからないもっとも無防備な睡眠中の音声を録音されるというのは、受け入れがたいプライバシーの侵害です。

 「録音されたファイルは誰がもっているのだろう?」
 「誰か録音を聞いた人がいるのだろうか?録音を聞くことができるのはだれだろう?」
 「何が録音されたのだろう?恥ずかしい内容や聞かれたくないことが録音されていないだろうか?」

 たとえば、こんなことを考えただけでも落ち着かなくなります。

 アプリ業者は、「音声ファイルは安心なところに保管しています。誰も聞くことはありませんし、中身を知られることもありませんから安心してください。」と言うかもしれません。しかし、これではまるで業者に「人質」を取られているようです。録音されている音声は自分のデータなのですから、ユーザーの立場からすると、そもそも勝手に録音をしないでほしい、ということになります。

 百歩譲って、音声データを業者が持つことを認めるとしましょう。
 業者は、ユーザーが要求すればファイルを完全に破壊してくれるでしょうか?
 残念ながら、それも定かではありません。データの削除さえ業者次第なのです。

 この状況では、ユーザーは自分自身の情報について完全にコントロールを失ってしまっています。睡眠中の音声は、間違いなく個人のプライバシーの領域です。ユーザーは、アプリを使うことでいつの間にかプライバシーを失っていました。同様のことは睡眠アプリにかかわらず、あらゆるアプリ、IoTデバイスで発生していると考えられます。
 プライバシーの侵害はもはや有名人の特権ではありません。私たち一般人の生活の中でも生じるものなのです。データ・プライバシーとは、他でもない私たちに関わる問題です。


3)説明はしたし、同意の上でやっている

 それにしても、なぜこのようなことが起きてしまったのでしょうか?知らないうちに眠っている間の音声を録音されることを防ぐ方法はあるのでしょうか?それを理解するには、プライバシー・ノーティス(Privacy Notice)について説明することから始めなければなりません。

 データ・プライバシーには透明性(transparency)の原則というものがあります。これは、組織が個人データを処理する場合、具体的にどのように取得、使用、開示、保管、廃棄するのか説明しなければならないというものです。簡単に言えば、個人データを使うからにはしっかり説明しなさい、ということです。

 個人データの処理方法を説明するために使われるツールを、プライバシー・ノーティスといいます。プライバシー・ノーティスは通常、ウェブサイトの下部(フッター)にリンクが貼られていて、どのページからもアクセス可能となっています。ウェブサイトによってはプライバシー・ポリシー(Privacy Policy)と記載されていることもありますが、プライバシー・ノーティスと同じ意味で使われています。

 さて、先ほどの睡眠アプリに戻りましょう。アプリが睡眠中の音声を録音することは、プライバシー・ノーティスに書かれていなければなりません。アプリのダウンロード・サイトについているリンクから実際のプライバシー・ノーティスをみてみましょう。(アプリの名前と運用会社名をそれぞれXYZ、ABCと置き換えています。)

<引用はじめ>
 モーションセンサー&マイクデータ
 XYZを睡眠のトラッキングに使用する場合、お使いのデバイスのモーションセンサーとマイクにより記録されたデータへのアクセスが求められます。そのデータへのアクセスを許可した場合、XYZはデータを処理し、その結果をXYZを実行しているデバイス上に睡眠分析レポートとして保存します。

 XYZでオーディオ記録機能を有効にすると、XYZの使用中、XYZがデバイスのマイクで記録された音声を処理する場合があり、1つ以上のオーディオ記録がデジタルオーディオファイル形式でデバイスに保存されます。このデータの処理はすべてXYZを実行しているデバイス内でのみ行われます。XYZがモーションセンサーデータおよび生のオーディオデータを、ABCまたはその他のサードパーティが所有する外部サーバーに保存および送信することはありません。”

<引用終わり>

 果たして説明がされていました。このアプリは、「マイクへのアクセス」を許可し、「オーディオ記録機能を有効」とすると「XYZがデバイスのマイクで記録された音声を処理する場合があり」、「オーディオ記録」を「デジタルオーディオファイル形式」で「デバイスに保存」するということです。もっとはっきりと「プレミアム会員であるかないかに関わらず睡眠中の音声を録音し保管する」と書いていればいいのですが、そこは大人の事情で類似の内容で代替しています。
 もう一つ注意したいのは「マイクへのアクセス」です。マイクへのアクセスを許可しなかった場合、「睡眠分析レポート」は生成できないことになります。マイクへのアクセスは、「睡眠分析レポート」生成の前提条件となっているため、アプリを利用したいのであればユーザーに選択肢はありません。ユーザーはアクセスを許可するしかないのです。
 このノーティスのグレーな部分は、「XYZがデバイスのマイクで記録された音声を処理する場合があり」という部分でしょう。「処理」とは具体的に「眠っている間に音声を録音する」ことですが、はっきりとそうは書いていません。また、「場合があり」という言葉をつけていることで、常に「処理」しているわけではないような印象をユーザーに与えます。しかし、データ・プライバシーでの「処理」とは録音する他にも音声を「検知」することも含まれているため、厳密には常に「処理」を続けています。
 用語の曖昧さも気になります。「デジタルオーディオファイル形式」とはmp3などの音声ファイル形式を意図しているのでしょうが、わかりづらい表現になってしまっています。

 このように、世の中のプライバシー・ノーティスは「嘘ではないけれども本当でもない」わかりづらい内容となっていることが数多くあります。睡眠アプリに戻れば、アプリ会社はプライバシー・ノーティスで処理の内容を説明したし、マイクで記録されたデータにアクセスすることについてもユーザーの「同意」を取ったと主張することでしょう。確かにそれらしい説明はして、「同意」らしきものも取っています。(念のためコメントしておくと、今回のようにユーザーに選択肢がない同意は無効となるため注意してください。)しかし、プライバシー・ノーティスは会社を護ることを目的に作成され、アプリを通じて合法的にマネタイズすることを可能とするためのツールとして使用されているのですから、現状ではユーザーもよほど注意して付き合わないと言わざるを得ないでしょう。

 今回の睡眠アプリ会社に関していえば、先に録音して、録音したファイルをユーザーに見せ、料金を請求するという方法をとっている点が狡猾です。こういう悪質なマネタイズ手法をダーク・パターンと呼んでいますが、研究によると、インターネット上には実に1818種類ものダーク・パターンが確認されています。インターネット企業は気付かないうちにデータ利用をユーザーが許可するよう巧妙にウェブサイトやアプリを設計し、課金を実現するための仕組みを作り上げているのです。


4)プライバシーを護るためにできること

 このような時代、私たちはどのように自分のプライバシーを護ることができるのでしょうか?
 残念ながら、私たちにできることはそれほど多くありません。それでもあえて挙げるのであれば、次の三つのことに気を付けるとよいでしょう。

 一つ目は、アプリをダウンロードする前、インターネット上に自分の情報を入力する前に、プライバシー・ノーティスを確認し、自分の情報をどのような目的で処理し、誰に開示しているかを確認することです。納得がいかない場合は、そのアプリやサービスを利用すべきではありません。二つ目は、むやみにアプリをダウンロードせず、自分の端末へのアクセスも許可しないことです。スマートフォンには各アプリがどのような情報にアクセスするか(e.g.位置情報や写真情報)を確認できる方法があるので、定期的に確認して意図しないアクセスがない状態を実現することです。三つ目は、声を上げること。残念ながら、企業や組織は圧力がなければ動きません。日本であっても個人情報保護委員会に苦情を申し立てることができます。苦情申し立ての窓口に連絡することで企業の欺瞞的な行動への取り締まりが強化され、よりプライバシーを重視する環境を整備できます。Noということは、今の時代とても大切なことです。

 私たちは、優れた企業や組織を称賛することで自分たちの生きたい社会を形作ることができます。問題は何をもって「称賛」するかです。今の日本では「ビジネスを成長させた会社」や「成功」した人を称賛する傾向が強いですが、優れた価値観を示し、実行した人を称賛することで形成できる価値観があることも忘れてはなりません。データ・プライバシーとは、最終的には倫理の問題に行きつきます。私たちが今取るべき行動は、単に経済的に成功したからとAIベンチャーやネット企業を成功者としてほめそやすことではなく、新たな技術の上手な活用の仕方と誠実な取り組みを促進している企業や組織を称賛することだと思います。日本のインターネット社会にバランスの取れた倫理観をもたらすのは、官僚でも弁護士でも企業でもなく、私たち市民です。自分たちが住みたい社会はどのようなもので、未来世代に何を残したいのかを考え、ぜひ賢明な行動をとっていただきたいと思います。


第1回 インターネットはいいもの?悪いもの?(2020/1/15)



1)私たちが生きる時代

 1999年10月、世界で初めてインターネットでのストーカー被害による殺人が起きました。この時殺害された女性、エイミー・ボイヤー(Amy Boyer)の家族はウェブサイトを立ち上げ、次のように綴っています。

 「インターネットは瞬く間に普及し、日常生活の大きな部分を占めるようになりました。今、私たちは立ち止まって、一歩下がり、自分たちが何を創り出したのか、この技術が私たちをどこへ連れて行こうとしているのか考える時が来ているのではないでしょうか」

 この事件から20年がたち、インターネットはビジネス界だけではなく日常生活にも深く浸透しました。インターネットは私たちの生活に欠かせないものとなっています。AIの活用、「つながる車」(connected car)の実用化、IoT製品の普及は、この傾向をさらに加速することでしょう。しかし、「この技術が私たちをどこへ連れて行こうとしているのか」私たちは本当に考えてきたのでしょうか?SNSを通じた犯罪の発生や企業が人々のデータを人権侵害といえる方法で利用している事例が報告されるのを見ていると、残念ながらまだまだ検討すべきことは数多くありそうです。

 私たちは個人的な空間を必要とする存在です。それは一人だけの場所かもしれませんし、心を許した相手との時間かもしれません。自分だけの「スペース」があることで気持ちに余裕が生まれるのです。私が専門にしているデータ・プライバシーは、わずか25年ほどで実現したインターネットでつながる世界に、人が人らしく生きる上で必要なバランスを取り戻すことを目指しています。

 現代はだれもがネット上でのストーカー被害(cyber-stalking)やいじめ(cyber-bulling)といった犯罪にさらされる可能性のある時代です。犯罪でなくても、インターネット技術の発達によって、利用しているサービスや家電製品を通じて公表するつもりのないことを気付かないうちに誰かに知られてしまっています。そんな時代には、自分だけの「スペース」を持つことは特別な努力なしには不可能です。

 このコラムでは、私たちの問題としてのデータ・プライバシーを日常の視点から紹介し、必要な対策や私たちにできることについて紹介します。コラムを通じて、私たちが直面している課題を知り、どのような社会に生きていたいのかを共に考えていただければ幸いです。


2)インターネットはいいもの?悪いもの?

 20年以上連絡を取っていなかった相手に中国で再会できたという友人がいます。友人は知人が中国に移住したらしいと噂で聞いていました。そこで中国で仕事が入った際、試しに相手の名前を検索してみたのです。果たして同じ名前の人物が見つかり、友人はその会社の代表連絡先にメールを送りました。会社の担当者から知人に連絡が行き、二人は孫文が通ったという北京のレストランで20年ぶりの再会を、紹興酒を手に果たしたのです。

 これは、私が大学生の頃の話です。あの頃はトム・ハンクスとメグ・ライアンが主演をつとめた『ユー・ガット・メール』(You’ve Got Mail, 1998)がヒットした時代でした。だれもがインターネットについて楽観的で、その可能性に胸を膨らませたものです。インターネットは出会いを、時にはロマンスさえももたらします。閉鎖的になりがちな私たちの生活に風穴を開けてくれる存在です。

 現在、私はTwitter、Facebook、LinkedInといったSNSを利用していますが、ここでは世界中の友人とつながることができます。日本では見られないようなダイナミックな活動をしている人とつながることもできます。思わず笑ってしまうようなジョーク、元気をくれる言葉、かわいらしい動物の写真、美しい風景の写真といった心のサプリメントを得ることもできますし、つながっている仲間との情報共有も可能です。遠く離れた、会ったこともない相手と新規プロジェクトを立ち上げることさえあります。

 インターネットが素晴らしい場所だということは、疑いの余地のないことでしょう。しかし、インターネットには負の側面が存在することもよく知られています。たとえば、ネット上に出た情報を削除することはほぼ不可能です。これが大きな問題になることもあります。アメリカの政治家が顔を黒塗りメイクで大きな非難を浴びることがありますが、人として未熟な時代に思慮を欠いた行動を行ってしまうことは、程度の多少はあれ、だれもがあるものです。今は就職活動で採用担当者がSNSで候補者を検索する時代なので、過去に行ったネット投稿が思いもよらない形で採用担当者の目に留まり仕事の機会を失うことも起こり得ます。インターネットが、チャンスを奪いかねない凶器となる瞬間の一つでしょう。今回のコラムの冒頭で紹介したサイバーストーキングは命を奪われるという、あってはならない事件となってしまいました。学校ではネット上の陰湿ないじめで不登校になる子どもや自ら命を絶つ子どももいます。ビジネスの世界では、詐欺メールで億単位の資金を失う事件ハッキングによる風評被害を招く事件が報道されています。
 事件性はなくても負の効果をもたらすこともあります。携帯電話やラップトップがあればどこでも仕事ができる時代となったおかげで、帰宅後もe-mailをチェックしまうことはないでしょうか?そのような状態になると週7日24時間仕事をしている状態となり、心が休まりません。インターネットでつながっていることが、心理的ストレスをもたらすこともあるのです。

 インターネットは文明の利器なのでしょうか?それとも人類にもたらされた凶器なのでしょうか?

 答えは人によって異なるでしょう。
 私は、インターネットは自動車のようなものだと思っています。自動車は私たちに移動や物流の面で大きな恩恵を与えてきた反面、交通事故のリスクももたらしました。しかし、私たちは自動車を使い続けています。大切なのは、リスクをコントロールすることだからです。
 実際、社会は長い時間をかけ、様々な痛みを伴いながらリスクのコントロールに成功してきました。日本の2018年の交通事故による死者数は3,532人でピーク時の1万6,765人(1970年)から比べると約5分の1となっています。一方で、日本の自動車の保有台数は1970年の1,758万台だったのが2018年ではその約4倍、7,829万台です。自動車の数が4倍に増え、死亡事故が5分の1に減少しているのですから、車社会の成熟と自動車そのものの安全性能が格段に向上したことが推測できます。
 注意したいのは、リスクがゼロに近づいたというわけではないことです。交通事故は依然として多く発生しています。統計によると2018年の日本の交通事故数は43万0,601件で、1分に1件の交通事故が発生している計算となります。重大なリスクを抑え込むという面では成果を出しているものの日常的なリスクに関してはまだまだといわざるを得ません。

 インターネットの世界でも同様の道をたどることでしょう。私たちはもう、文字を打ち込むだけで情報を検索でき、コミュニケーションを行えるこの素晴らしい技術を手放すことはできません。取り組むべきは、リスクをコントロールすることです。自動車がたどったように、まずは重大な事故が発生する確率を低下させ、安全性を格段に向上することです。リスクをゼロにすることはできませんが、許容できるレベルまで低減することならば可能なはずです。そのためには、私たちはインターネットに潜むリスクを理解し、有効な対策を行う必要があります。

 インターネットはまだ生まれたばかりの技術であり、社会はその発達のスピードに追い付けていないというのが現状です。仕組み、制度、法律とあらゆる面で社会的基盤の整備が遅れています。
 YouTubeにビル・ゲイツにデービット・レターマンがインタビューをしている番組の録画が残っています。ここではインタビュアーのデービット・レターマンが「インターネットで野球の試合が見られるって?」と質問をしています。この番組が録画されたのは、わずか25年前の1995年のことでした。100年前、自動車ができた時に、「馬がいないのに荷台が勝手に動くというのかい?」と質問した人がいたかどうかはわかりませんが、自動車が社会に浸透するスピードと比べるとインターネットの普及に要した時間はわずか4分の1程度でしかありません。車社会が安定しているのは、100年という時間をかけて社会が技術に適応したからでしょう。
 私たちは、インターネットのある世界に社会をあわせる途上にあります。GDPRやCCPAといった斬新なデータ保護法も、その一環と理解できます。今年改正される予定の個人情報保護法も同様です。私たちは、新たなスタンダードの下で運営される社会を創造しつつある過程にあるのです。私たちがどのような社会に生きていたいのか、どのような社会を子どもたち、そして将来の世代に残したいのかを考え、形にしていくことが、私たちの世代の責任であり、仕事だと私は考えています。これは読者の皆さんを含め、今という時代を生きるすべての人の大切な仕事なのです。



【寺川 氏のご紹介】

寺川 貴也(てらかわ たかや )氏

世界のデータ・プライバシー対応を専門とするコンサルタント。プライバシー・マネジメント・プログラムの導入や、世界のデータ保護法動向、プライバシーとテクノロジーとの接点に関して強みを持つ。世界最大のプライバシー専門家協会であるIAPPが発行する欧州法の専門家認証CIPP/Eおよびプライバシー・マネジメント・プログラムの専門家認証であるCIPMを保有する他、JETROの専門家として中小企業を中心に50社以上にデータ保護法に関するアドバイスを提供してきた。また、子どものオンライン上での安全を護るために必要な知識とノウハウを普及するNGOであるCyberSafety.orgの国際アドバイザーも務めている。
会員制データ・プライバシー情報サイト:https://m.technica-zen.com/
2020年には情報機構からデータ・プライバシー対応の基本を解説した『データ・プライバシーの教科書』を出版予定。

会社概要 プライバシーポリシー 特定商取引法に基づく表記 商標について リクルート
Copyright ©2011 技術セミナー・技術書籍の情報機構 All Rights Reserved.