「「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方」に対して寄せられた意見」について

個情法3年ごと見直しに関して、2月下旬〜3月初め頃に有識者から提出された意見書が公開されていましたので、重要と思った部分を紹介していきます。その際、那須翔「個人情報保護法の論点」の関係箇所を示すことにします。

なお、各意見書は、形式的には「「個人情報保護法 いわゆる3年ごと見直しに係る検討」 の今後の検討の進め方について」(令和7年1月22日)を対象としているものの、その後、意見書の提出(2月下旬に期限が設定されていたのでしょうか。)までの間に個情委が順次「個人情報保護法の制度的課題に対する考え方について(個人データ等の取扱いにおける本人関与に係る規律の在り方)」(令和7年2月5日)、「個人情報保護法の制度的課題に対する考え方について(個人データ等の取扱いの態様の多様化等に伴うリスクに適切に対応した規律の在り方)」(令和7年2月19日)を公表したため、実質的には「個人情報保護法の制度的課題に対する考え方について」(令和7年3月5日)(2月の2本の資料と比較して新規なのはエンフォースメントの箇所のみ)に対する意見ともなっているものと思われます。

 

 

石井先生

プロファイリングについては、EUの法令の中でも様々な規律が課せられるようになっていますし、機微情報を用いたプロファイリング、こどもの情報を用いたプロファイリングを含め、検討を深める必要があると考えます。

→論文1頁、13頁

 

行政機関等についてもこどもの情報の取扱いに関する規律を及ぼすことには賛成です。また、公立学校に通うこどもの情報を民間事業者が提供する学習用アプリ等を通じて取り扱う場合は、教育委員会(学校)が当該情報を責任を持って管理する体制が必要と考えます。

→論文5頁

 

板倉先生

いわゆるクラウド例外(個人情報保護法Q&Aの7-53,「当該クラウドサービス提供事業者が,当該個人データを取り扱わないこととなっている場合とは,契約条項によって当該外部事業者がサーバに保存された個人データを取り扱わない旨が定められており,適切にアクセス制御を行っている場合等が考えられます.」)については,事業者(ないしこれに助言する者)の我田引水的な解釈が目立つ。/GDPRに対応したプライバシーポリシーではProcessorであることを自認しているのに,個人情報保護法との関係では「取り扱っていない」と強弁するなどの場面にも遭遇する(特に,海外のクラウドベンダーの代理店)。/欧州との相互認証にも鑑み,対日本と対欧州での二枚舌は許されるべきではない。/「個人データを個人データとして取り扱わない」場合にのみ適用されるとの趣旨を明確にし,類似の場面(記憶媒体の修理,倉庫,宅配等)と合わせて整理すべき。

→論文6頁

 

委託先であるビッグテックを「監督」しているというのはフィクションに近いが,クラウドサービスを利用した方が安全管理措置としてレベルが高いという現実がある。「委託先の監督」そのものであるかはともかく,総務省「地方公共団体における情報セキュリティポリシーに関するガイドライン(令和6年10月版)」で示されているような要素(内部規定の整備,約款等からのリスク判断)を参考に,適切な対応を示すことは重要ではないか。

→論文6頁

 

「統計情報等の作成にのみ利用されることが担保されていること等(注2)」の方向性について、類型を想定した上で議論することが有用ではないか。/①AIモデルの作成又は学習のためのクローリング/②秘密計算等のPETsを前提とした企業同士のデータの結合/このうち、①は特段の技術を要しないが(ただし、「生成AIサービスの利用に関する注意喚起等について」別紙2「OpenAIに対する注意喚起の概要」(令和5年6月2日)(1)②③で求められているような要配慮個人情報の減少・非識別化措置については困難)、②については一般的な事業者における運用は困難である。/そのため、①については一般的な事業者が行うことを想定しても良いが、②については原則としてPETsサービスプロバイダを利用することになるのではないか。

→論文10頁。AIとPETsについては今後特にフォーカスした検討が必要だなと思っています。

 

注4の事例を含め賛成できるが、「契約の履行のために必要不可欠」の範囲が問題(規則に委任され程度限定列挙されるなら裸で解釈されるものではないが)

→論文11頁。「必要不可欠」も問題ですが(必要性を厳密に判断するくらいの意味だとすれば、適切だと思います。)、「契約」も問題で、利用規約に書きさえすれば潜脱できるというのでは、プラポリに書きさえすればよいという現状を大きくは変えられないかもしれない、とも思います。

 

「現行法上、個人情報取扱事業者は、漏えい等報告の義務を負うときは、本人への通知が困難な場合を除き、一律に本人への通知義務を負うこととなるが、本人への通知が行われなくても本人の権利利益の保護に欠けるおそれが少ない場合(注7)について、本人への通知義務を緩和し、代替措置による対応を認めることとしてはどうか。」については妥当(個人情報保護委員会への報告が行われれば適正担保は可能)

→論文ではセキュリティには意識的に触れなかったのですが、ご指摘の通りだと思います。実際、個情委への報告事項には本人への対応状況が現在でも含まれており、本人通知が必要かつ適切であるのに事業者が合理的理由なくそれを行わない場合には、個情委から行うように指導することは可能です。

 

「16歳」の妥当性については、(機能していていたか不明である)GLの定めと、GDPRの規律(なお、各国の実施法で年齢を引き下げられるため、実際は13歳等にしている国も多い。2023年の調査であるが、https://support.lucidhq.com/s/article/Surveying-Minors)が根拠となっているが、成人年齢である18歳より下げる理由は特にないのではないか。

→児童のデータの「取扱い」について特別の規制を課すこと自体は合理的だとしても、どこで線を引くかは別問題であり、18歳以外とする場合、民法上の行為能力制度との整合性を確保する作業が大変になりそうです。

 

このような(筆者注:何らかの連絡を行うことができる)記述等である個人関連情報」「仮名加工情報」「匿名加工情報」と、データベース等を構成しない情報も対象であるような記述であるが、データベース等を構成しない(少なくとも予定されていない)ものは対象となるべきではない。/また、「連絡を通じて…権利利益の侵害が発生」(注1の例)することは防がれるべき事態であるとしても、個人情報保護法で規律すべき対象なのか、適切に規律できるのかは疑問。そもそも、ほとんどの人間間の権利利益侵害は「連絡を通じて」行われる。個人情報保護委員会が、ロマンス詐欺やSNS型投資詐欺をすべて対応するというなら話は別だが、そのようなことは予定しないであろう。特定電子メール法も不要になるのではないか(外部送信規律は、当然に個人情報保護法に吸収されるべきということになる)。

→論文2頁。論文では、「EU法のダイレクトマーケティング規制と比較したとき、日本では、①不招請勧誘自体は、勧誘の方法や対象となる取引に着目した個別的な規制が志向されてきたこと、②日本法の名簿業者規制にはより組織犯罪対策的な側面があることに留意すべき」と書きましたが、①は金商法、特商法、特電法を念頭に置いており、②は、端的に言えばダイレクトマーケティング規制と詐欺対策ではスコープが異なるだろうという話です。

 

オプトアウトに基づく提供をしている事業者は、いわゆる名簿屋のみならず、企業情報データベース提供事業者、地図情報提供事業者等があり、後二種については、十分に聴取する必要があるのではないか(本人確認なしの提供が一切禁止されることになるため)

→この点は論文執筆時にはあまり考えられていなかったことですが、ご指摘のとおりではあります。特に、この種のDBは組織犯罪対策に使用されていることも多いところ、正当利益のような広い第三者提供事由を設けない場合、適切にすくう(そして個情委から見たときより重要なこととして、適切なガバナンスを要求する)ことが必要だろうと思います。

 

新保先生

今回の提案では「統計作成等であると整理できるAI 開発等を含む」とされているが、その具体的な範囲は必ずしも明確ではない。特に、以下の点について詳細な検討が必要である/① AI モデル開発のための学習データ取得と、AI が実際に運⽤段階で学習するデータの両⽅が含まれるのか/② LLM(⼤規模⾔語モデル)構築のためのデータ取得と、プロンプト⼊⼒などユーザとの対話から得られるデータの学習過程の両⽅を含むのか/③⽣成AI 等のファインチューニングも「統計作成等」に含まれるのか/「AI 開発」という⽬的によって情報を取得する場合に要件が緩和されるという解釈は理解できるが、AI 開発の多様な段階や⽅法について、どこまでが「統計作成等」に含まれるのかを明確にする必要がある。

→論文10頁。AIとPETsについては今後特にフォーカスした検討が必要だなと思っています。

 

AI学習データセットには多種多様な情報が含まれており、「要配慮個⼈情報が学習データに含まれていないことの証明」は技術的に極めて困難である。⼤規模データセットを網羅的に精査することは現実的ではなく、要配慮個⼈情報が含まれていることを前提とした制度設計が必要である。/⼀⽅で、要配慮個⼈情報を含むデータセットをAI開発に利⽤する場合、差別的なAIの⽣成リスクなど特有の問題が⽣じうる。こうした問題に対処するための技術的・組織的措置についても検討すべきである。

→論文11頁、8〜9頁。

 

「AIの学習データであり、統計情報の作成のみに利⽤される」ことをどこまで担保できるかという問題がある。例えば、AIを活⽤したRAG(Retrieval-Augmented Generation)により個⼈情報データベースを構築することも技術的には可能である。このような「顧客名簿作成のためのデータ取得」は、明らかに統計情報の作成ではなく「個⼈情報データベース等を作成するための処理」であり、同意要件緩和の対象外であるべきだが、その線引きと実効性の担保⽅法が課題となる。

→論文では(批判が目的ではなかったので)書きませんでしたが(その代わりに10頁で非決定利用と特に断りなく読み替え、その前提で話を進めています)、ご指摘のとおりだと思います。「統計情報の作成」の範囲は、最終的に明確にされる必要があり、そうでないと、「統計情報の作成等である」という強弁を許すことになる気がします。

 

グローバルなAI開発環境においては、国境を越えたデータ移転が不可避であり、以下の点に留意する必要がある/①海外サーバでのAI開発を⾏う⽇本企業の場合、「統計作成等」⽬的であっても、外国移転規制(法第28条)との整合性をどう図るか/②国外の事業者が⽇本国内でAI開発を⾏う場合、⽇本の個⼈情報保護法の適⽤(域外適⽤を含む)と、当該事業者の本国法との関係をどう整理するか/③国際的なデータ移転に関するセーフガードとして、どのような措置が求められるか/特に、法第28条にいう「相当措置」に基づく外国の第三者への提供について、AI開発の⽂脈でどのように適⽤するかを明確にする必要があるとともに、その継続的な実施を確保するための措置(法第28条第3項)についても検討を要する。

→論文ではパンドラの箱だと思ったので敢えて踏み込みませんでしたが、越境移転規制は重要な問題だと思います(特に自由貿易が後退し、データ保護法を関税に対する報復として利用することが検討されているこの時代には。一方で、明らかに日本で事業を行っている米国企業を外国企業判定している例も多いような…)。

 

当該例外規定が悪⽤され、本⼈の予測を超えた第三者提供の連鎖が⽣じることを防⽌するための措置も重要である。具体的には以下の点について考慮すべきである。/①第三者提供の事実を本⼈が認識できるような情報提供の仕組み/②提供先での利⽤⽬的の制限と遵守状況の確認⽅法/③提供する個⼈データの項⽬の必要最⼩限化/特に、複数の事業者が関与するサービス提供過程において、本⼈にとって予測可能性を確保し、透明性を⾼める⼯夫が求められる。

→ご指摘のとおりであり、契約履行のための第三者提供が行われる場合において利用目的による制限や保有個人データに関する事項の公表等をどのように適用されるかは、検討しておく必要があるだろうと思います。なお、その際、論文10頁で指摘した、仮名化されたデータが提供先で個人データに該当しなくなる問題についても、検討しておく必要があるだろうと思います。

 

高木先生

近頃では、AI開発と言えば生成AIの開発を指すかのような世の論調もあるが、数年前までは、個人に関係し得るものとしては、個人データを入力とした機械学習に基づき個人に対する何らかの判定器を開発することを指すことが一般的であった。EUのAIActも2021年の欧州委員会提案時点ではそちらが想定されていた。そちらのAIをここでは「生成AI」から区別して「個人処理AI」あるいは単に「処理AI」と呼ぶことにする。/注1に「統計作成等であると整理できるAI開発等を含む」とある「AI」は、生成AIのことを指しているようでもあり、処理AIを指しているようでもあり、これらを区別することは、次の点で重要である。「本人同意なき個人データ等の第三者提供及び公開されている要配慮個人情報の取得を可能としてはどうか」との記載のうち、「公開されている要配慮個人情報の取得」とあるのは、生成AIを対象にした場合の話であり、「個人データ等の第三者提供」とあるのは、生成AIではなく処理AIを対象にした話であろう。/また、注1のAI開発に限らず、「統計情報等の作成」には、「AI」と言うほどのものでもない(何をもってAIと呼ぶかはともかくとして)ものまで含めた、統計分析を想定した記述であろう。

→論文1頁、6頁〜7頁。論文では(批判が目的ではなかったので)書きませんでしたが、ご指摘のとおりであり、統計と生成AIと処理AI(個人的には「識別AI」と呼んでいます)は区別する必要があります。

 

このことは、昨年6月12日の委員会ヒアリングの際に提出した意見書でも、「1.3 要配慮個人情報の取得」の節で、「この意見で指摘したいのは、個人情報データベース等に登録することを予定していない個人情報の取得についてまでもが、本当に個人情報取扱事業者の義務に係るのかという疑義(後述)である。」として指摘している。言い換えれば、そもそも、生成AI開発における学習への入力に要配慮個人情報が含まれることがあっても、「統計情報等の作成にのみ利用される」のである限り、元々現行法は何ら義務の対象にしていないということである。

→論文3頁、11頁。論文3頁注38が言っているのは、高木意見書2頁注2と同じことです。

 

このように、生成AI開発、検索エンジン、クラウドのいずれの場合も、「個人データを取り扱わない」という点で共通しているのであるから、これらに一貫する規律とするべきではないか。Q&Aで解釈を示すことも考えられるが、法律によって規定する必要があるのであれば、この際、クラウドや検索エンジンについても含まれる形で規定してはどうか。

→すぐにはコメントが浮かびませんが、新規かつ重要な提案であると思います。

 

処理AI開発及び統計分析の場合にも、「統計情報等の作成にのみ利用されることを担保する」点では、前節の生成AIの場合と共通であるが、こちらの場合は、前節と異なり、個人データの提供を受けて、「個人に関する情報」として処理するものであるから、個人に関する情報に対する義務として、「統計情報等の作成にのみ利用されることを担保する」べきである。/その方法として、注2は、「提供元・提供先……における一定の事項の公表」、「統計作成等のみを目的とした提供である旨の書面による提供元・提供先間の合意」、「提供先……における目的外利用及び第三者提供の禁止」を義務付けることを想定していると記載しており、公表と合意について異論はないが、目的外利用の禁止、第三者提供の禁止については議論の余地がある。まず、禁止義務を課す際に、名宛人に何を指定するのか。この目的で提供されるデータを例えば「統計目的提供情報(統計目的提供情報データベース等を構成するものに限る)」などと定義して、「統計目的提供情報取扱事業者は、」などと規定することが考えられるが、またしても新たな情報類型を増やすことになり、不評を買うことになるのではないか。/あるいは、仮名加工情報の規律を拡張することも考えられる。仮名加工情報はその禁止規定から、結局のところ「統計作成等」の目的でしか使いようのないものとなっているのだから、今回の趣旨に概ね整合する情報類型である。現行法の仮名加工情報では、第三者提供が禁止されているところ、今回規定する範囲内に限っての提供を認める規律が考えられる。

→論文10頁

 

このように、安全管理措置としての仮名化を前提とした統計目的の利用は、匿名化に求められる再識別の禁止とは異なる規律で設計されるべきものであり、この際、現行の仮名加工情報の禁止規定の見直しも含めて検討されたい。

→識別性の解釈が適切なものとなっておらず、そのことが仮名加工情報の規律を歪めている例ではないかと思います(論文2頁〜3頁、11頁注105)。

 

「人の生命、身体又は財産の保護のための例外規定及び公衆衛生の向上又は児童の健全な育成の推進のための例外規定」の「本人の同意を得ることが困難であるとき」との要件について、「事業者・本人の同意取得手続に係る負担を軽減」するとの観点から、「相当の理由があるとき」を加えることが提案されているが、「手続きに係る負担」が課題とされているように、これは、統計目的で大量に収集する必要がある場合や、「本人に代わって提供」するなど「本人の意思に反しない」場合が想定されているのではないか。そうであれば、前記のA1(1)と(2)の導入によって解決するものではないか。

注5に「例えば、(略)本人のプライバシー等の侵害を防止するために必要かつ適切な措置(氏名等の削除、提供先との守秘義務契約の締結等)が講じられているため、当該本人の権利利益が不当に侵害されるおそれがない場合等が想定される。」との記載があるが、第三者提供の制限や目的外利用の禁止は、プライバシー侵害の防止(秘密保持の利益)のためだけではなく、不適切な措置又は決定に利用されることの防止のためでもあることから、単に「氏名等の削除、提供先との守秘義務契約の締結等」の措置で許されてよいものではない。必要なのは、前記のA1(1)で述べたように、「措置又は決定を裏付ける利用の禁止」である。

「臨床症例の分析が必要不可欠であり、病院等の医療の提供を目的とする機関又は団体による研究活動が広く行われている実態がある」と記載されているが、統計目的の研究については、前節と同様に、前記のA1(1)の実現によって解決するのではないか。統計目的でない研究(介入研究)については、もとより本人同意(インフォームドコンセント)を要するし、「臨床症例の分析」には、統計目的でも介入研究でもないものがあるかもしれないが、同意を得ることに支障があるわけではないのではないか。これらに該当しない状況があるのであれば、具体的に示して検討するべきではないか。

「学術研究例外に依拠することができる主体である「学術研究機関等」に、医療の提供を目的とする機関又は団体が含まれることを明示することとしてはどうか。」として、注6に「病院や、その他の医療の提供を目的とする機関等(診療所等)が含まれることが想定される」とされているが、これらの機関が、「臨床症例の分析」を行うに際して、「人を対象とする生命科学・医学系研究に関する倫理指針」に従うことになるのか。倫理指針に従わない者は、学術研究例外に含めるわけにはいかないのではないか。

→論文11頁

興津征雄「行政機関による非法的国際規範の国内における実現 : ココムとFATF」について

興津先生(@yukio_okitsu)の「行政機関による非法的国際規範の国内における実現 : ココムとFATF」(「論文」)を拝読したので、感想を書いていきます。全て個人としての感想です。

  • 業法、犯収法、マネロンGL、FATF勧告の相互関係はおそらく関係者の多くが気になっている点であり、行政法学の関心の対象としていただけるのはありがたいです(伝統的には金融規制は行政法学ではなく商法学の対象という雰囲気があったこともあり…)。なお、 AMLを理由とする直近の行政処分2件(イオン銀行羽後信用金庫)は、いずれも業法に基づいています。
  • 特に金融分野では、業該当性はしばしば業法の保護法益(言い換えれば、業法が対処しようとするリスクの有無・高低)に照らして判断されますが(例えば佐野史明『詳解 デジタル金融法務 第2版』151頁~152頁、160頁~165頁)、マネロンリスクを考慮すべきかについては実務レベルで議論があります(佐野・前掲152頁、市古裕太『デジタルマネービジネスの法務』529頁)。
  • FATFの対日相互審査報告書では、マネロンガイドラインはenforceable meansであり(例えば33頁の77段落)、金融機関がAML/CFT上の要求に違反した場合には、業務改善命令等を課すことができるとされています(147頁の441頁)。一方、Enforceable meansの要件として、違反に対する制裁が求められており(FATF勧告120頁の法的根拠に関する注釈のpara. 3)、この制裁は、(enforceable means自体とは)別文書に記載されていてもよいが、clear links between the requirement and the available sanctionsが必要とされています(para. 4の(c)柱書)。論文の指摘は、この点にも関わるかもしれません。
  • 銀行の健全性ないし公共性(論文44頁の右段)は、難しい概念だなと感じます(品田智史「誤振込みと財産犯:山口地判令和5年2月28日裁判所Webによせて」63頁〜65頁を読んだときも、そう思いました。)。いずれにせよ、論文がそうしているように、1条の解釈(家根田正美=小田大輔「銀行法の目的と基本理念」も参照)を、銀行業には2つの行為が含まれており、為替取引のほうは資金移動業者にも認められていることも考慮しつつ、議論の出発点とするのがよいのではと思っています。
  • 論文を読んでいて、次の2点で、個情法を想起しました。
    • 第1に、「個人情報の保護に関する法律に係るEU域内から十分性認定により移転を受けた個人データの取扱いに関する補完的ルール」です。補完的ルールは、法の規定に基づく法的拘束力を有するルールであり、勧告・命令の対象となり、裁判所による救済の対象となるとされており(補完的ルール1頁(PDFのページ番号で5頁))、欧州委員会の対日十分性認定はこの説明を受け入れていますが(para. 15)、疑問も提起されています(巽智彦「公法学から見た日EU間相互十分性認定個人情報保護法制の公法上の課題」)。
    • 第2に、主務大臣制です。我が国において、民間部門における個人情報保護は、業規制の一環として始まり、平成15年に個情法という横断的立法がなされたものの、主務大臣制という形で縦割り構造は維持され(論文43頁左段の表現を借りています。)、平成27年改正で個情委が設立され、監督権限が個情委に一元化されたものの、業規制の対象となっている業種においては、現在でも、権限の委任や個別法の規定(銀行法施行規則13条の6の5以下、貸金業法施行規則10条の2以下、移動業府令24条以下等)を通じて、あるいは事実上、業法に基づく監督の中で、個人情報保護についても一定の監督が行われています。
  • 脚注には、この問題に関する論文が網羅的に挙げられており、これから勉強したいと思います。実務的には、脚注17の警察庁の逐条、中崎先生の本(の最新版)、尾崎寛ほか編著『逐条解説FATF勧告』山崎千春=尾崎寛編著『マネロン等対策の新論点』を見ることが多いです(後ろ2冊は辞書的というよりはインプット用ですが。)。

「個人情報保護法の制度的課題に対する考え方(案)について(個人データ等の取扱いの態様の多様化等に伴うリスクに適切に対応した規律の在り方)」について

個人情報保護法の制度的課題に対する考え方(案)について(個人データ等の取扱いの態様の多様化等に伴うリスクに適切に対応した規律の在り方)」について書いていきます。

 

前提

  • 本文書は、2025年2月19日の第315回個人情報保護委員会の資料として公開されたもので、「「個人情報保護法いわゆる3年ごと見直しに係る検討」の今後の検討の進め方について」(同年1月22日)の「3 制度的な論点の再整理について」(7頁)において示された3つの項目のうち、「(2) 個人データ等の取扱いの態 様の多様化等に伴うリスクに適切に対応した規律の在り方」の中に記載された各論点について、「想定される具体的な規律の方向性に関する考え方等を示すもの」です。「今後、本文書の内容も踏まえつつ、ステークホルダーとの議論を続けていく」こととされています。
  • 「(1)個人データ等の取扱いにおける本人関与に係る規律の在り方」については、今月5日に「個人情報保護法の制度的課題に対する考え方(案)について(個人データ等の取扱いにおける本人関与に係る規律の在り方)」が公表されています。これについては、今月7日の記事で若干のコメントをしています。
  • 今回の考え方案は、「1 特定の個人に対する働きかけが可能となる個人関連情報に関する規律の在り方」、「2 本人が関知しないうちに容易に取得することが可能であり、一意性・不変性が高いため、本人の行動を長期にわたり追跡することに利用できる身体的特徴に係るデータ(顔特徴データ等)に関する規律の在り方」、「3 悪質な名簿屋への個人データの提供を防止するためのオプトアウト届出事業者に対する規律の在り方」の3項目からなっています。端的に言えば、1はCookie等規制、2はバイオメトリックテンプレート規制、3はオプトアウト事業者が第三者提供を行う際の確認義務です。
  • 今月7日の記事では考え方案の記載を転記した上でコメントしましたが、今回は転記したら量が膨大になってしまったので、省略します。

 

個人関連情報の適正取得義務・不適正利用禁止

  • 「特定の個人の所在地(住居、勤務先等)、電話番号、メールアドレス、CookieID等の記述等…を含む個人関連情報等」(注3参照)を、「特定の個人に対して何らかの連絡を行うことができる記述等」と位置づけ、適正取得義務・不適正取得禁止規定の対象としようとするものです。
    • その根拠として、①「当該個人への連絡を通じて当該個人のプライバシー、財産権等の権利利益の侵害が発生し…得る」こと、②「当該記述等を媒介として秘匿性の高い記述等を含む情報を名寄せすることにより、プライバシー等が侵害されたり、上記連絡を通じた個人の権利利益の侵害がより深刻なものとなったりするおそれ」の2つが挙げられています。
    • ①の具体例としてフィッシング(注1)、②の例として「オンラインメンタルヘルスカウンセリングサービスを運営する事業者が、ユーザーから取得したメールアドレス及び健康情報を、治療支援等のためにのみ利用し第三者に共有しない旨等を約していたにもかかわらず、広告目的で第三者に提供する事例」(注2)が挙げられています。
    • この提案は、中間整理第2の1(1)イ(特にPDF下部に記載されたページ番号で6頁第2段落)を具体化したものと思われます。
  • 「特定の個人に対する連絡」は、EU法では、ダイレクトマーケティングとして上乗せ規制がされています。すなわち、GDPR上は少なくともオプトアウトが必要とされており(正当利益によることも可能ですが、通常であれば利益衡量が必要な異議権が、ダイレクトマーケティングについては無条件とされています。)、ePrivacy指令が適用される場合には、オプトインが必要とされています(以上につき、前回記事参照)。これに対し、個情委の主たる関心は、詐欺防止にあり、同じ「特定の個人に対する連絡」でも、問題としている慣行が異なります
  • ①だけが問題なのであれば、個情委の提案は理解できなくはありません。Cookieによる「特定の個人に対する連絡」が何を指すのかはよく分かりませんが(通常、連絡先としては使用されないので)、オンカジの広告や詐欺広告を「騙されやすそうな人」にターゲティングして出すようなケースを考えているのかもしれません。
  • 問題は、個情委が②で名寄せに言及していることです。名寄せは個情法が対処しようとする主要なリスクの一つであり、それを問題とするのであれば、利用目的による制限をはじめとする個情法の規制の「フルセット」を適用する必要があります。つまり、(上記のような個人関連情報は「特定の」個人を識別できないとして、個人情報に該当しないとされていますが、)個人情報の定義の「特定の」を削除する(昭和63年法に合わせて「当該」に改める)べきだということです(なお、パブコメ意見では、法目的、沿革、個情委自身の一貫性の3つの根拠から、そうすべきだと述べました。国際的調和の観点からもそうすべきだと考えられます。)。
  • これまで、個人情報概念を上記のように修正する上での主要なハードルは、個人情報(個人データ)の第三者提供規制が過剰に厳格であることでした。今回、個情委は、第三者提供規制の合理化を試みており(今月7日の記事)、それが成功するのであれば、無理に「つまみ食い」する(令和2年改正で導入された個人関連情報の第三者提供規制はその例です。)必要はないはずです。
  • 一方、「オンラインメンタルヘルスカウンセリングサービスを運営する事業者が、ユーザーから取得したメールアドレス及び健康情報を、治療支援等のためにのみ利用し第三者に共有しない旨等を約していたにもかかわらず、広告目的で第三者に提供する事例」を挙げている趣旨は、よく分かりません。というのも、そのような情報はそもそも個人情報であり、第三者提供規制が及ぶと思われるからです。

 

仮名加工情報・匿名加工情報の適正取得義務・不適正利用禁止

  • 「特定の個人に対して何らかの連絡を行うことができる記述等」が含まれる仮名加工情報及び匿名加工情報についても「同様の趣旨が当てはまる」ことから、同様に適正取得義務・不適正利用禁止規定を導入することが提案されています。
  • しかし、そもそも「特定の個人に対して何らかの連絡を行うことができる記述等」が含まれる情報が仮名加工基準や匿名加工基準を満たすのかについて、疑義があります。

 

バイオメトリックテンプレートの規制強化

  • 「顔特徴データ等」(バイオメトリックデータですが、単なる顔写真はこれに該当しないとのことなので(注7)、バイオメトリックテンプレートと呼ぶほうが適切だと思います。)について、①個人情報取扱事業者の名称等、顔特徴データ等を取り扱うこと、顔特徴データ等の利用目的、顔特徴データ等の元となった身体的特徴の内容、利用停止請求に応じる手続等を周知する義務(一定の場合は除く。注10。)、②利用停止請求権(要配慮個人情報の取得が認められるのと同様の事由がある場合を除く)③オプトアウトによる第三者提供の対象からの除外が提案されています。中間整理第2の1(1)ア(特にPDF下部に記載されたページ番号で4頁第2〜3段落)を具体化するものと思われます。
  • EU法では、この種のデータは、要配慮個人情報に相当するデータと並列に、その処理について強化された法的根拠が要求されています。一方、データサブジェクトの権利のレベルでは、特別扱いはされていません。
  • 個情委の提案は、最終的に「取扱い」が許される条件については、要配慮個人情報の取得規制のものを転用しつつ、本人の請求がない限り当該条件を満たさなくてもよいという、若干不可解な内容となっています。リスクとそれへの対応(提案されている規制の内容)が噛み合っていないのではないかと思います(指紋押捺事件判決を思い出しました。)。
  • 特に、①については、個人情報の「取扱い」全般について要求されるべき事柄であって、「顔特徴データ等」に固有のリスクとは関係がないのではないかと思います。

 

オプトアウト事業者が第三者提供を行う際の確認義務の導入

  • オプトアウト事業者が第三者提供を行う際に、受領者の氏名等及び利用目的の確認義務を課すことが提案されています。中間整理第2の1(2)(特にPDF下部に記載されたページ番号で8頁「考え方」第1、2段落)を具体化するものと思われます。
  • 名簿屋については、平成27年改正で規制が強化され、オプトアウト事業者に届出義務が課され個人情報取扱事業者全般に第三者提供を行う場合の記録義務及び第三者提供を受ける場合の確認・記録義務が課されています。なお、
    • 「届出義務」は、「届出がオプトアウトによる第三者提供の要件とされている」と言うほうが正確です。
    • 提供時の記録義務の対象は、日付、受領者の氏名等、本人の氏名等、個人データの項目、同意による場合にはその旨です。
    • 受領時の
      • 記録義務の対象は、日付、提供者の氏名等、取得の経緯、本人の氏名等、個人データの項目、オプトアウトの場合には公表がなされていること、同意による場合にはその旨です。
      • 確認義務の対象は、このうち、提供者の氏名等及び取得の経緯です。
  • 受領者にのみ確認義務が課されているのは、規制強化の背景となったベネッセ事件において、漏洩した個人データが名簿屋に売却され、流通していたからですが、提供者が違法に名簿を入手した場合だけでなく、受領者が名簿を違法行為に使用する場合も当然に考えられるのであり、提供者に確認義務を課すことは、適切だと思います。
    • 一方、現状では「提供元が不適正な利用の禁止…を適切に履行するための手段が存在しない」という記述の趣旨はよく分かりません。怪しい受領者には提供しなければよいのではないでしょうか(実際には、不適正利用とするには違法行為に使用することを知りながら提供したことを認定する必要があるが、確認義務を課しておけばその懈怠をもって介入できる、という意図なのだと思います。ただ、そうであるとしても、そもそも課徴金以外の場面で違反認定にこだわる必要はない気がします。)。
    • そもそも、確認記録義務の趣旨はトレーサビリティと説明されますが、身も蓋もない言い方をすれば、記録を捜査関係事項照会の対象とし、犯罪的な提供者・受領者の摘発に役立て、それに協力しないのであれば、名簿屋自体を共犯者として摘発する、ということなのではないかと思います。
    • この意味で、日本法の確認記録は、EU法のrecord of processing activitiesとは趣旨が異なります。第三者提供規制の趣旨からすると(権利侵害との関係で)より直接的であるはずの内部利用が記録対象になっていないことも、このことから説明できます。確認記録義務は「極悪層」対策であり、そんな人たちに内部利用を記録させても意味がないし、そういう人たちは身柄を押さえてガサ入れして警察自らが手口を解明するのだ、ということです。
  • もっとも、そうであるとすると、オプトアウト事業者に確認義務を課すだけでよいのかは、少なくとも現時点では疑問があります。すなわち、現在、第三者提供の同意を取得するにあたっては、受領者の名称も利用目的も告知する必要はなく、「第三者に個人データを提供する」ということについて同意を取得すればよいかのような実務が行われています(なお、金融分野ガイドラインでは、努力義務という形ではあるが、それでは足りないとされています。)。このような実務の背景には、契約履行や正当利益による第三者提供の制度が存在せず、同意概念を極めて緩やかに解釈しなければワークしないという事情があったのだと思いますが、これでは本人が同意したからといって何のリスク低減にもならなりません。そのため、現状の実務を前提とする限り、オプトアウトによる場合に限らず、第三者提供を行う場合全般について確認義務を課すべきではないかと思います。一方、今回の見直しで、弛緩した同意概念は適正化される可能性があり(今月7日の記事)、それが実現できるのであれば、さしあたりは、オプトアウト事業者にのみ確認義務を課すことでもよいと思います。
  • なお、犯罪インフラ対策として考えた場合、個情法の確認記録ルールの監督は極めて緩やかであり、実効性に疑問があります。個情委(及び警察)は名簿屋の実態を詳細に公表することはしていませんが、実態次第では、特商法を参考に罰則付きの業務停止命令の制度を設け、届出を受けた場合には詳細な審査を行い、法令違反を把握した場合(無届の名簿屋によるものを含む。)には業務停止命令を発出するといった対応が必要なのではないかと思います。

個情法はダイレクトマーケティングをどのように扱っているか?/名簿業法としての個情法について

EU法を整理した上で日本法について書いていきます。高木・情報法制研究16号106頁もご参照ください。

 

EU法

  • 法的根拠
    • EU法(GDPR)では、コントローラーは、同意、契約履行・締結、法的義務の遵守、生命保護、公的事務の遂行又は公的権限行使、正当利益のいずれかの法的根拠がある場合にのみ、個人データを処理することができる(GDPR 6条1項)。これは、OECDガイドライン第1原則(collection limitation)を具体化するものとされている(WP217)。
  • 同意
    • 同意は、自由意思に基づき(2条(11))、具体的な目的について(6条1項(a))、必要な情報提供を受けた(informed)上で(2条(11)、7条2項)、明確に(2条(11))与えられたものでなければならない。
      • デフォルトでチェックされたチェックボックスは同意とは認められず、黙示の同意は認められない(recital 32)。
      • 同意は処理の目的ごとに与えられなければならない(recital 32)。
      • サービス提供に必須ではない個人データ処理をサービス提供の条件とする場合(7条4項)や、力の不均衡がある場合(recital 43、guidelines 05/2020)には、同意の任意性は疑わしくなる。
    • 同意はいつでも撤回可能である。同意の撤回は、既に行われた処理の適法性に影響を与えない。これらのことは、同意が行われる前にデータサブジェクトに告知されなければならず、同意を撤回する方法は、同意を与える方法と同程度に容易でなければならない(7条3項)。
  • 正当利益
    • 正当利益による処理の適法性は、正当利益の存在、処理がその追求にとって必要であること(必要性テスト)、データサブジェクトの利益が正当利益に優越しないこと(比較衡量テスト)、の3段階で判断される(6条1項(f)、WP217guidelines 2/2024)。
      • 比較衡量テストにおいては、データサブジェクトの合理的期待が重視される(recital 47、guidelines 2/2024)。
      • ダイレクトマーケティングも、正当利益たりうる(recital 47)。
    • データサブジェクトは、データ処理に異議権(right to object)を有する(21条)。この権利は、処理の制限を求める権利(right to restriction of processing)(18条)と異なり、恒久的な処理の停止を求めるものである。
    • 異議権は、2種類に分けられる。
      • 一般の異議権は、個人データ処理が、公的事務の遂行等又は正当利益に基づいて行われている場合に適用される。コントローラーは、正当利益がデータサブジェクトの権利に優越すること等を証明しない限り、処理を停止しなければならない(21条1項)。
      • ダイレクトマーケティング目的の個人データ処理に対する異議権は、より強力である。すなわち、データサブジェクトがこれを行使した場合、コントローラーは、当然に処理を停止しなければならない(21条2項、3項)。
    • これらの権利は、遅くともデータサブジェクトとの最初のコミュニケーションの時点で、データサブジェクトに告知されなければならない(21条4項)。
  • ePrivacy指令との関係
    • ePrivacy指令は、以上とは別に、(Cookieなどの)ユーザー端末に保存したデータへのアクセス(同指令5条3項)及びダイレクトマーケティングのための自動電話機(いわゆるロボコール)、ファックス、電子メールの使用について、同意を要求している(同指令13条1項)。これらはGDPRの特別法として位置付けられる(WP217)。

 

日本法

  • 以上に対し、日本法(個情法)では、そもそも単なる処理(取扱い)に法的根拠は要求されていない。
  • 令和2年改正で、「当該本人が識別される保有個人データの取扱いにより当該本人の権利又は正当な利益が害されるおそれがある場合」には、利用停止請求ができるとされ(35条5項)、その例として、ガイドライン通則編で、「ダイレクトメールの送付を受けた本人が、送付の停止を求める意思を表示したにもかかわらず、個人情報取扱事業者がダイレクトメールを繰り返し送付している」場合が挙げられている。もっとも、「繰り返し送付」によってどのような「本人の権利又は正当な利益が害されるおそれがある」のかは明らかではない。例えば私生活の平穏の侵害が考えられるが、長崎教師批判ビラ事件(やガイドラインの闇金業者の記載)のように、この権利はある程度強度の侵害がなければ違法とはされてこなかったようにも思われる。
    • なお、この背景には、欧州委員会の手前、ダイレクトマーケティングを規制したと言いたいが、内閣法制局の手前、全業種に不招請勧誘ないし再勧誘の禁止を導入するとは言いにくかった、といった事情があるのかもしれない。
  • 一方、第三者提供制限は、法文上はダイレクトマーケティングを特別扱いするものではないが、実際上、名簿屋の活動をしにくくし、結果的に望まないダイレクトマーケティングを抑制することが(誤りや差別よりも遥かに現実的な問題として)期待されてきたのではないかと思われる。単純に名簿屋を規制しようとした場合、名簿屋を許可制をとするか届出義務を課し、名簿の購入と提供に確認記録義務を課すことが考えられるが(古物営業法や犯収法、携帯電話本人確認法のように)、個情法はあえてそれをせず、全事業者に厳格な第三者提供制限を課し、その例外(=オプトアウト)の要件として、名簿屋に事実上届出義務を課すこととし、第三者提供について確認記録義務を課すこととした(こうする場合、業を定義する必要はないが、第三者提供制限自体が罰則の対象でない以上、届出を「怠った」者を罰則の対象とすることはできなくなる。また、確認記録義務も、古物営業法等に比べれば相当に緩い。)。しかし、一般の事業者のダイレクトマーケティングと、詐欺グループや闇金の名簿利用では、当局として取るべきアプローチが異なり、無理に個情法に組み込もうとすると、過小規制・過剰規制が避けられない。中長期的には、名簿屋対策(データブローカー規制)をある程度個情法から分離することも検討されてよいのではないか。

サイバー対処能力強化法案及び同整備法案について

サイバー対処能力強化法案及び同整備法案の5点セットとパワポ資料が公表されていたので、パワポ資料に基づいてメモしていきます。

 

全体像

  • 新法のうち、
    • 官民連携に関わるのは、第2章(特別社会基盤事業者による特定侵害事象等の報告等)、第9章(協議会。基本法に基づくサイバーセキュリティ協議会を置き換え)、42条(電子計算機等供給者に対する情報提供等)である。
    • 通信情報の利用に関わるのは、第3章(当事者協定)、第4章(外外通信目的送信措置)、第5章(当事者協定又は外外通信目的送信措置により取得した情報の取扱い)、第6章(特定内外通信目的送信措置及び特定外内通信目的送信措置)、第7章(特定内外通信目的送信措置及び特定外内通信目的送信措置の取扱い)、27条(関係行政機関の分析への協力)、23条(利用及び提供の制限。36条で特定内外通信目的送信措置及び特定外内通信目的送信措置によって取得された情報にもみなし適用される)、第10章(サイバー通信情報監理委員会)である。
      • 3章、4章で取得した情報を5章に従って自動選別し、6章で取得した情報を7章に従って自動選別する。3章〜5章は政府と協定を結んだ基幹インフラ事業者及び外外通信(監理委員会の承認が必要)を対象とし、6章、7章は外内通信及び内外通信(監理委員会の承認が必要)を対象とする。
    • 第8章(総合整理分析情報等の提供)は、官民連携及び通信情報の利用を通じて得られた情報の整理・分析・提供に関わる。
  • 整備法では、アクセス・無害化措置のための警職法改正及び自衛隊法改正、組織・体制整備のための基本法改正及び内閣法改正が行われる。

 

官民連携

  • 官民連携の強化の全体像。
  • 「脆弱性対応の強化」は有識者会議での検討の終盤で入ったもの。

 

  • 官民連携の強化の詳細。
  • 「脆弱性対応の強化」は「重要電⼦計算機」、つまり「そのサイバーセキュリティが害された場合に、特定重要設備の機能が停⽌し、⼜は低下するおそれがある⼀定の電⼦計算機」を対象とする(なお、「特定重要設備」は経済安保推進法で定義された概念である。)。

 

通信情報の利用

  • 通信情報の利用の全体像。
  • 3つの情報源があり、取得の手続が異なる。
  • なお、内内通信は対象とされていないが、外外/外内/内外/内内は、IPアドレス等によって判定され(11条1項など)、「意思疎通の本質的な内容」が誰から誰に向けられたものであるかは、関係がない。そのため、最終的に国内者に読まれることを目的としたメッセージであっても、IPパケットのdestinationが海外サーバである限り、取得の対象にはなる。

 

 

分析情報・脆弱性情報の提供等

  • 分析情報・脆弱性情報の提供等の全体像。5つの情報源から得た情報を整理・分析し、3つのグループの者に提供する。
  • 「総合整理分析情報」、「提供用総合整理分析情報」には秘密性があり、「周知等用総合整理分析情報」にはそれがない。
  • 「提供用総合整理分析情報」は、主として協議会の構成員に提供することとされており、現行基本法下での協議会下での枠組みが踏襲されている。重要経済安保情報保護活用法に基づくセキュリティクリアランス制度の活用は、排除されているわけではないものの、必須でもないようである。

 

 

アクセス・無害化措置

  • 整備法のうち、アクセス・無害化措置に関する部分の全体像。

 

  • 警察によるアクセス・無害化措置。
  • 警職法6条(立入り)と7条(武器使用)の間に6条の2(サイバー危害防止措置執行官による措置)が置かれる。
  • 警察法改正は含まれていない。なお、執行官は、警察庁(サイバー特捜部が想定されているものと思われる。)又は都道府県警察の警察官から指名され、措置に関し警察庁長官、警視総監、道府県警察本部長の指示を受ける。

 

  • 自衛隊によるアクセス・無害化措置。
  • 自衛隊法6章(自衛隊の行動)のうち、81条の2(警護出動)と82条(海上警備行動)の間に、81条の3(重要電子計算機に対する通信防護措置)が置かれる(スライド1ポツ目)。また、第7章(自衛隊の権限)のうち、91条の2(警護出動時の権限)と92条(防衛出動時の公共の秩序の維持のための権限)の間に、91条の3(重要電子計算機に対する通信防護措置の際の権限)が置かれる。
  • スライドには書かれていないが、95条の3(施設防護)の後に、95条の4(自衛隊等が使用する特定電子計算機の警護のための権限)が置かれる。

 

組織・体制整備等

  • 整備法のうち、組織・体制整備等に関する部分の全体像。

 

 

以上です。なお、パワポ資料には参考資料が続いており、そちらも参考になります。

「個人情報保護法の制度的課題に対する考え方(案)について(個人データ等の取扱いにおける本人関与に係る規律の在り方)」について

個人情報保護法の制度的課題に対する考え方(案)について(個人データ等の取扱いにおける本人関与に係る規律の在り方)」(の特に同意原則の箇所)について書いていきます。

 

前提

  • 本文書は、2025年2月5日の第314回個人情報保護委員会の資料として公開されたもので、「「個人情報保護法いわゆる3年ごと見直しに係る検討」の今後の検討の進め方について」(同年1月22日)の「3 制度的な論点の再整理について」(7頁)において示された3つの項目のうち、「(1)個人データ等の取扱いにおける本人関与に係る規律の在り方」の中に記載された各論点について、「想定される具体的な規律の方向性に関する考え方等を示すもの」です。「今後、本文書の内容も踏まえつつ、ステークホルダーとの議論を続けていく」こととされています。
  • 今回の考え方案は、「1 個人の権利利益への影響という観点も考慮した同意規制の在り方」、「2 本人への通知が行われなくても本人の権利利益の保護に欠けるおそれが少な い場合における漏えい等発生時の対応の在り方」、「3 心身の発達過程にあり、本人による関与等の規律が必ずしも期待できない子供の個人情報等の取扱い」の3項目からなっています。本記事では、このうち「1」について書きます。
  • なお、前提として、EU法が個人データ処理全体について同意などの「法的根拠」を要求しているのと異なり、日本法が同意又は例外事由を要求するのは、目的外利用、第三者提供、要配慮個人情報の取得の場面に限られます。

 

統計情報等の作成の追加

  • 考え方案の記載
    • 特定の個人との対応関係が排斥された統計情報等の作成や利用はこれによって個人の権利利益を侵害するおそれが少ないものであることから、このような統計情報等の作成にのみ利用されることが担保されていること等(注2)を条件に、本人同意なき個人データ等の第三者提供及び公開されている要配慮個人情報の取得を可能としてはどうか(注3)。」
    • 「注1:(注:「統計情報等の作成」には)統計作成等であると整理できるAI開発等を含む。」
    • 「注2:個人データ等が統計情報等の作成にのみ利用されることを担保する観点等から、①(a)個人データ等の提供元・提供先及び(b)公開されている要配慮個人情報の取得者における一定の事項(提供元・提供先、取得者の氏名・名称、行おうとする統計作成等の内容等)の公表、②統計作成等のみを目的とした提供である旨の書面による提供元・提供先間の合意、③提供先及び取得者における目的外利用及び第三者提供の禁止を義務付けることを想定。」(番号は筆者による)
  • コメント
    • 第三者提供制限だけであれば、注2のような代替的措置とともに例外を認めることは、合理的だと思います。一方、安全管理措置・本人の権利への対応は引き続き課す必要があると思います。
    • 要配慮個人情報の取得については、少なくとも、保護法益との関係を整理しておく必要があるように思います。要配慮個人情報の取得に関する特則は、不当な決定からの保護というよりは、伝統的なプライバシー、つまり、秘匿の利益の保護を目的とするものです。「統計情報等の作成にのみ利用されることが担保されている」場合、不当な決定のリスクは限定的ですが、秘匿の利益の保護の侵害リスクはそうとはいえないように思います。
    • なお、個人情報の取得規制は、体系的に構成することを目的とする場合に限定すべきであり、具体的には、①体系的に構成され又は構成することが予定された情報を個人データと定義するか、少なくとも、②個人情報の取扱いを対象とする規定も体系的に構成することを予定していない場合には適用されないと解釈すべきではないかと思います(そうした場合、要配慮個人情報の取得規制も体系的構成を予定する場合にのみ適用されることになります。)。

 

契約履行の追加

  • 考え方案の記載
    • 「個人データの第三者提供等が契約の履行のために必要不可欠な場合を始め、目的外利用、要配慮個人情報取得又は第三者提供が本人の意思に反しないため本人の権利利益を害しないことが明らかである場合(注4)について、本人の同意を不要としてはどうか。」
    • 「注4:例えば、①本人が、事業者Aの運営するホテル予約サイトで事業者Bの運営するホテルの宿泊予約を行ったため、事業者Aが事業者Bに当該本人の氏名等を提供する場合や、②金融機関が海外送金を行うために送金者の情報を送金先の金融機関に提供する場合等が想定される。(略)」(番号は筆者による)
  • コメント
    • 注4のようなケースは、従前、黙示の同意や「本人に代わる提供」として処理されてきましたが、そのことが、(利用目的特定義務が緩いことと相まって)同意概念を弛緩させ、適切な解釈適用を困難にしてきた面があります。契約履行を同意とは別に規定することで、同意を適切に解釈適用する素地が整うのではないかと思います。
    • なお、通信の秘密に関する「同意取得の在り方に関する参照文書」は個情法の同意解釈と比べると相当に厳格ですが、本来こちらが正しい「同意」なのではないかと思います。

 

生命等保護・公衆衛生等例外における同意取得困難要件の緩和

  • 考え方案の記載
    • 人の生命、身体又は財産の保護のための例外規定及び公衆衛生の向上又は児童の健全な育成の推進のための例外規定について、現行制度においては「本人の同意を得ることが困難であるとき」という要件が付されているが、事業者・本人の同意取得手続に係る負担を軽減し、個人情報のより適正かつ効果的な活用及びより実効的な個人の権利利益の侵害の防止につなげる観点から、「本人の同意を得ることが困難であるとき」のみならず、「その他の本人の同意を得ないことについて相当の理由があるとき」(注5)についても、上記例外規定に依拠できることとしてはどうか。」
    • 「注5:例えば、(公衆衛生の向上のために特に必要である一方で、)本人のプライバシー等の侵害を防止するために必要かつ適切な措置(氏名等の削除、提供先との守秘義務契約の締結等)が講じられているため、当該本人の権利利益が不当に侵害されるおそれがない場合等が想定される。(略)」
  • コメント
    • 生命等保護例外と公衆衛生等例外は、それぞれ権利保護のための取扱いと公益のための取扱いの一部を規定したもので、これらを適切な範囲で拡張していくことは、EU法にいう正当利益を擬似的に実現していくことになります。困難性は既にQAで弛緩しているので、正面から位置づけることは、基本的にはよいことだと思います。
    • 「その他の本人の同意を得ないことについて相当の理由があるとき」は規範的な要件であり、仮にこの文言で立法する場合、個情委が解釈を示していく必要があります。
      •  その場合、公取委が行っているように、分野ごとに実態調査を行い、どのような個人データ処理が行われているか、それについて事業者がどのような規制上の課題を感じているか、あるいは当該課題をクリアする上でどのような法的整理を行っているかをし、個情委がそれについて見解を示していくことが有効ではないかと思います。
      • また、「人の生命、身体又は財産の保護のために必要がある」や「公衆衛生の向上又は児童の健全な育成の推進のために特に必要がある」といってもその必要性の程度は様々であり、「相当の理由」はそれを考慮して適用する必要があると思います。
    • なお、民間同士でのAML(ないし犯罪防止、犯罪被害の拡大防止)のための情報提供は、現状だと、財産保護に必要又は何らかの法令に基づく場合と整理されているものと思いますが、公衆衛生等例外に加えてもよいのではないかと思います。

 

学術研究例外の対象者の拡大

  • 考え方案の記載
    • 「医学・生命科学の研究においては、研究対象となる診断・治療の方法に関する臨床症例の分析が必要不可欠であり、病院等の医療の提供を目的とする機関又は団体による研究活動が広く行われている実態があることから、目的外利用規制、要配慮個人情報取得規制、第三者提供規制に係るいわゆる学術研究例外に依拠することができる主体である「学術研究機関等」に、医療の提供を目的とする機関又は団体(注6)が含まれることを明示することとしてはどうか。」
    • 「注6:例えば、病院や、その他の医療の提供を目的とする機関等(診療所等)が含まれることが想定される。(略)」
  • コメント
    • 適切だと思いますが、医師の守秘義務や保険診療との関係は別途整理しておく必要があるように思います。

憲法判例上のプライバシーについて

話題になっていたのでメモです。かなりざっくりとした個人的理解であることにご留意ください。

 

憲法13条と35条

  • 憲法13条は個人の私生活上の自由として「みだりに●●されない自由」を保障している。この自由は、京都府学連判決で初めて示され、指紋押捺判決住基ネット判決マイナ判決の判断枠組みを提供している。
  • 憲法35条は、「私的領域に侵入されることのない権利」を保障している。この権利はGPS判決で初めて示された。もっとも、何をもって当該権利の侵害となるか(同判決に即して言えば、プライバシー強保護領域、継続性・網羅性、物理的侵襲のどこに重点が置かれているか)は明らかではない。
  • 「私的領域に侵入されることのない権利」を侵害する処分は、強制処分となる(GPS判決)。一方、「みだりに●●されない自由」を制約する(この表現は正確ではないがそれはさておき)にとどまる処分は、強制処分とはならない可能性がある。

 

「みだりに●●されない自由」と私法上のプライバシー

  • 前科照会判決は、憲法判例ではない。同判決は、「前科等のある者もこれをみだりに公開されないという法律上の保護に値する利益」の侵害を認めたが、その理由として、前科等が「人の名誉、信用に直接にかかわる事項」であることに言及している。このような情報は、私法上のプライバシー権によって保護されるものであり(伊藤補足意見は「個人の秘密に属する情報」と表現し、Google決定は、「プライバシーに属する事実」と表現している。)、「みだりに●●されない自由」が「国民の私生活上の自由が、警察権等の国家権力の行使に対しても保護されるべき」ことを規定している憲法13条によって保障される(京都府学連判決)のとは異なる。実際、本判決は、京都府学連判決を引用していない一方、Google決定(仮処分事件である。)は、(「みだりに●●されない自由」に関する一連の判例ではなく)本判決を引用している。
  • 早稲田大学判決も、憲法判決ではない(さらに言えば、国賠事件ですらない。)。同判決は、江沢民国家主席の講演会参加者の名簿という(少なくともそれまでの判例によれば)プライバシー権によって保護されるとは言い難い情報について、「プライバシーに係る情報」として私法上の保護を与えたが、その内実は、「上告人らが任意に提供したプライバシーに係る情報の適切な管理についての合理的な期待」の保護である。なお、ベネッセ判決は本判決を引用しているが、住基ネット判決は本判決を引用していない。
  • 以上を要するに、「私的領域に侵入されることのない権利」「プライバシーに属する情報」の保護は、情報の質(content)に重点を置いており、これに対し、「みだりに●●されない権利」「プライバシーに属する情報」の保護は、情報の取扱いの態様や状況(context)に重点を置いている、と言えるかもしれない。

 

憲法判例と監視社会リスク

  • 「みだりに●●されない自由」に関する一連の判例は、明らかに監視社会リスクに対処しようとしている。
    • 京都府学連判決が写真撮影について「みだりに●●されない自由」との関係を問題としたこと自体がそうであるし(同判決を私法上の肖像権の判例と理解した場合、侮辱的態様を考慮した法廷内写真撮影事件と整合しない。)、
    • 指紋押捺判決は「採取された指紋の利用方法次第では」個人の権利が侵害されると明言した。
    • また、住基ネット判決・マイナ判決は、目的外利用(データマッチングないし名寄せ)のリスクに言及している。
    • なお、GPSの判決も、傍論としてではあるが、「被疑事実と関係のない使用者の行動の過剰な把握」の抑制に言及している。
  • そうであるにもかかわらず、情報濫用のリスクを正面から統制しようとした判例は存在しない。
    • 京都府学連判決は、収集が許される状況自体を厳格に絞った結果、濫用リスクはあまり問題とならなかったのかもしれない。
    • 指紋押捺事件は、権利保障が及ぶことを判示する場面では、上記のとおり利用方法に言及していたが、それが「みだり」ではないとする場面では、そのリスクの統制には言及しなかった。
    • 住基ネット判決・マイナ判決は、原告の請求の立て方の問題でもあるが、直接的には開示・公表(漏洩)が問題とされており、目的外利用は傍論の面がある。

 

刑訴法判例とプライバシー(追記)

  • 警察活動に関する憲法判例としては、京都府学連判決(昭和44年)とGPS判決(平成29年)が知られているが、刑訴法・警職法の判例としては、その間に、昭和51年決定(風船をやってからでよいではないか)、昭和53年判決(米子銀行強盗事件)、平成20年決定(ビデオ撮影)、平成21年決定(X線検査)など多数の判例の蓄積がある。
  • 上記のうち、昭和51年決定は、強制処分性及び任意捜査の限界に関するリーディングケースとみなされている。平成20年決定は、少なくとも京都府学連判決の射程を限定したとみなされているが、「みだりに●●されない権利」には言及せず、むしろ、昭和51年決定の枠組みで判断している。
    • なお、京都府学連事件は、警察官の撮影行為を契機として行われた公務執行妨害、傷害等に係る刑事事件であり、違法収集証拠排除ではなく、職務の適法性の文脈で、撮影行為の適法性が問題となっていた。その結果、昭和44年判決では、強制処分性は問題となっていない。
    • また、京都府学連事件と平成20年の事案の違いにも、留意する必要がある。すなわち、前者は公安事件であり、公安条例に基づくデモ行進の許可条件違反という形式犯の証拠保全のために撮影が行われたのに対し、後者は純然たる刑事事件であり、強盗殺人を含む実質的かつ重大な犯罪の捜査のために撮影が行われた。
  • 京都府学連判決とGPS判決の間になされた決定のうち、平成21年決定は、「荷送人や荷受人の内容物に対するプライバシー等を大きく侵害する」という形で、「プライバシー」に明示的に言及している。ここでは、憲法判例は引用されていないが、GPS判決に即して言えば、X線検査が「私的領域に侵入されることのない権利」の侵害を認めたものと理解できる可能性がある。
  • 刑訴法の分野では、米国連邦最高裁の修正4条解釈が大きな影響を与えている。そこでは捜査対象者がプライバシーを合理的に期待できる状況にあったかが諸事情から判断され、それによって(強制処分性の要件としての)重要な権利の侵害があったかどうかが判断されるのであるが、それは、「私的領域に侵入されることのない権利」の侵害の有無の判定と実質的に同じである可能性がある。
  • 逆に、「みだりに●●されない権利」の侵害を理由に強制処分性を認めた判例は存在せず、「みだりに●●されない権利」は(強制処分性の要件としての)重要な権利とはみなされていない可能性がある。しかも、昭和51年決定は、任意捜査に比例原則を要求したものと理解されているため、「みだりに●●されない権利」に言及することは、必須ではない(実際、刑訴法判例で「みだりに●●されない権利」に言及したものはない)。しかし、「みだりに●●されない権利」もまた比例原則を要求するものだとすれば、「みだりに●●されない権利」は、むしろ、法律自身が国民の私生活上の自由を侵害しており、昭和51年決定が刑訴法197条1項本文について示したように法律の柔軟(かつ憲法適合的)な解釈適用によってその侵害を回避できない場合に、法律に「外在的」な統制根拠として機能しうると思われる。

 

その他

  • なお、データライフサイクル的な発想(収集、利用、開示・公表)が浸透している気がしますが、この分類に大した意味はなく、違法収集証拠排除であれば収集行為の違法性の考慮要素として収集後の濫用リスクを主張し、差止めであれば利用の差止めを求めた上で(なお、収集の差止めでもよいのですが、住基ネットの場合、基本4情報は住基ネット以前から把握されているので収集は止めようがなく、個人番号の場合、J-LISと自治体が一方的に振るものなので、やはり止めようがないはずです。警察のDNA型のように、収集時にあった必要性が事後的に失われたようなケースでも、利用を止めるしかありません。逆に、違法収集証拠「排除」法則と異なり、差止めの対象はひとまず原告が自由に選べるので、収集に全てを織り込む必要もありません。)、その理由として、漏洩(=違法な開示・公表)リスクが問題なら漏洩リスクを主張し、濫用(=違法な利用)リスクが問題なら濫用リスクを主張すればよいと思います。
  • また、このように具体的なリスクを主張できる限り、少なくとも「みだりに●●されない自由」は拡張可能であり、例えばマイナンバー判決では主として漏洩リスクが主張されましたが、これとは別に、濫用リスクを正面から問題とすることも可能なはずです。

 

参考文献

ひとまず、斉藤邦文『プライバシーと氏名・肖像の法的保護』緑大輔『刑事捜査法の研究』を読まれるとよいと思います。

「AIモデルと個人データ処理」に関するEDPB意見書について

Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI modelsに目を通したので、雑駁ですがそのメモです。

意見書は後述のとおり4項目(回答では2番目と3番目がまとめられているので3項目)からなっているのですが、重要と思われる最初の3項目を対象にします。

なお、deployをどう訳すか悩んでいるのですが、高木先生が「配備」でよくて慣れの問題ではという趣旨のことを仰っていたので、ひとまず「配備」と訳してみることにしました。

 

前提

  • 意見書は、アイルランド当局の照会に応じて発行されたものである。照会事項は以下のとおりである(詳細はpara. 4)。
    • ①AIモデルが匿名とみなされる(≒その提供自体が個人データ処理とみなされない?)のはどのような場合か。
    • ②AIモデルの開発(development)における個人データ処理が、正当利益によって正当化されるのはどのような場合か。
    • ③AIモデルの配備(deployment)における個人データ処理が、正当利益によって正当化されるのはどのような場合か。
    • ④AIモデルの開発時における違法な個人データ処理は、その後の処理(subsequent processing)又はAIモデルの運用(operation of the AI model)にどのような影響を与えるか。
  • アイルランド当局の照会は、特にLLMの個人データ保護上の懸念に言及しており(para. 6)、意見書も、主としてLLMを含む生成AIを念頭に書かれているものと思われる(e.g. para. 90, 107)。

 

照会事項1について

  • 意見書は、
    • 照会事項1(AIモデルが匿名とみなされる場合)について、ブライヤー事件判決を引用して、(i)訓練に使用された個人データが直接(確率的なものを含む。)に抽出される可能性と、(ii)意図的かどうかにかかわらず、クエリを通じて当該個人データが取得される可能性が、全てのデータサブジェクトとの関係で取るに足らない程度(insignificant)である場合であり(para. 43)、
    • そのために、
      • (a)訓練データの選択(個人データの収集を回避又は制限するための措置)、
      • (b)データの準備・最小化(匿名データ・仮名化、最小化のための戦略(strategy)・技術、関連性のない個人データの除去)、
      • (c)訓練の方法(過学習の回避、差分プライバシー等)、
      • (d)出力に関する対策を考慮するとしている(para. 44-53)。
  • 日本では、
    • 個情委は、2021年6月更新のQ&A 1-8で、「複数人の個人情報を機械学習の学習用データセットとして用いて生成した学習済みパラメータ(重み係数)は、学習済みモデルにおいて、特定の出力を行うために調整された処理・計算用の係数であり、当該パラメータと特定の個人との対応関係が排斥されている限りにおいては「個人に関する情報」に該当するものではないため、「個人情報」にも該当しない」とし、
    • 2023年5月の一般及びOpenAIに対する注意喚起においても、専らクエリ(入力データ)を問題とし、LLM自体や出力データ言及していない。
    • 3年ごと見直しでも、日本法が検索エンジンに個情法を適用してこなかったことと整合的である旨の指摘(2024年6月12日付け高木意見書)及び「仮に一部の者が自らのデータを学習したAIの出力内容(アウトプット)を望まないとの理由で拒否をしたとしても、学習の結果得られる生成AIモデルやアウトプットにはほぼ影響がない一方で、学習データの中から特定の個人に関連するデータをすべて削除することが極めて難しいことから、アウトプットを制御する方が現実的」である旨の指摘(2024年12月3日付けヒアリング議事録のNICT部分及び同日付NICT鳥澤プレゼン資料参照。この指摘は同月17日付け「「個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点」に関するヒアリングの概要について」にも引用されており、上記の引用はそれによった。)がされている。

 

照会事項2及び3について

  • 意見書は、照会事項2及び3(開発及び配備時における個人データ処理の正当利益による正当化)について、正当利益に関するWP29意見書及びEDPBガイドライン(2024年11月20日にパブコメ終了)に従って、
    • (a)正当利益の存在、
    • (b)必要性テスト(個人データ処理が目的追求を可能にするか及びより侵襲的でない方法がないか)、
    • (c)利益衡量テスト(データサブジェクトの利益が正当利益に優越するものでないか)の3ステップの判断枠組みを示す(para. 66-75, 76)。
  • 問題は、(c)で何が考慮されるかであるが、以下が示されている。
    • データサブジェクトの利益に関しては、
      • プライバシー(基本権憲章7条)及び個人データ保護の権利(同8条)に対するリスクとして、①開発時におけるスクレイピング、配備時におけるデータサブジェクトの権利に反する方法での処理(?)、偶然又は攻撃により学習データに含まれる個人データが推測可能となることによる、レピュテーションリスク、なりすまし・詐欺、セキュリティリスク(para. 79)、
      • 表現の自由(同11条)に対するリスクとして、②開発時における大規模・無差別なデータ収集による萎縮効果、③配備時においてAIモデルがデータサブジェクトのコンテンツ公開のブロックに用いられることによるリスク(para. 80)、
      • ④脆弱な個人に不適切なコンテンツを推奨するAIモデルによる精神的健康に対するリスク(para. 80)、
      • ⑤求人応募の事前選別による就労の権利に対するリスク(para. 80)、
      • 差別されない権利に対するリスク
      • このうち、①②は主として生成AIに、③〜⑥は主として識別AIに関わると思われる。なお、①はGDPRのrecital 75そのものである。
    • データサブジェクトに対する処理の影響に関して、
      • (i)データの性質、(ii)処理の文脈、(iii)処理の結果がありうるとした上で(para. 83)、
      • データの性質に関して、特別カテゴリの個人データや前科データ等とは別に(apart from)、財務データや位置データなどの高度にプライベートな情報を明らかにする個人データ(certain types of personal data revealing highly private information)は、データサブジェクトに重大な影響をもたらす可能性があること(para. 84)、
      • 処理の文脈に関して、モデルがどのように開発されたか、モデルがどのように配備されるか、個人データ保護のための対策が適切かどうか(para. 85)、処理が他のデータセットと組み合わされるかどうか、処理の規模・処理される個人データの量、データサブジェクトの脆弱性(児童など)、コントローラーとの関係(顧客かなど)(para. 86)、
      • 処理の結果に関して、不適切な利用への対策(ディープフェイク、偽情報、フィッシング、操作的(manupilative)なAIなど)(para. 90)。
    • データサブジェクトの合理的期待に関して、
      • 開発時の個人データ処理について、データが公開されているか、データサブジェクトとコントローラーの関係、サービスの性質、データが収集された文脈、データが収集されたソース、モデルの潜在的なさらなる使用、個人データがオンラインに存在することの認識(para. 93)、
      • 配備時の個人データ処理について、パーソナライゼーションの認識、処理が当該データサブジェクトにのみ影響するのか全ての顧客に提供されるサービスの改善に使用されるのか、データサブジェクトとコントローラーの関係(para. 95)。

 

コメント

  • EDPBが求める開発時の対策は、NICTヒアリングで困難かつ効果が乏しいとされていることを、正面から要求するものとなっているように思われる。
  • 日本では、処理自体に法的根拠は要求されていないが、バランシングテストに関して示されたリスクないし(データサブジェクトの)利益は、日本でも参考になる。意見書が示すリスクのうち、③〜⑥は、(識別)AIを利用した個人データ処理の典型的なリスクである。一方、生成AIに関して示されたリスクが①②のみである(ように見える)ことは、少なくとも個人データ処理の文脈で生成AIを規制する必要性の小ささを示しているかもしれない。
  • 正当利益の箇所でreasonable expectations of data subjectsに言及があることは興味深い。(表面的にしか調べられていないが)GDPRrecital 47でこの概念に言及しており、EDPBガイドラインで具体化されている。DPDにはそのような言及はなかったが、WP29意見書はこれに言及しており、その際、ECHR(基本権憲章と異なりデータ保護の権利が独立していない。)におけるプライバシーに関するECtHR判例が引用されている。もしかすると、Katz判決を始めとする修正4条解釈がECtHR判例に影響し、これがDPD解釈に影響し、それがGDPRに取り込まれたのかもしれず、仮にそうだとすると、プライバシーの権利と個人データ保護の権利を区別した基本権憲章の下で制定されたGDPRとしてそれは一貫しているのかという疑問が生じうる。

第312回個人情報保護委員会 「個人情報保護法の制度的課題の再整理」について

昨日、第2回データ利活用制度・システム検討会への個人情報保護委員会事務局提出資料について書きましたが、本日の第312回個人情報保護委員会に「個人情報保護法 いわゆる3年ごと見直しに係る検討」の今後の検討の進め方について(案)」という資料と、その概要資料である「個人情報保護法の制度的課題の再整理」が提出されており、これがまたよい資料だったので、それについてそれについて書いていきます。

資料本体を参照すべきところですが、分かりやすさを優先して、概要資料のほうをベースに書きます。

 

事務局ヒアリングを踏まえて短期的に検討すべき追加論点について

  • 「短期的に検討すべき追加論点」として、3つの論点が挙げられています。これは次回の改正項目の候補と考えてよいのではないかと思います。
  • 「同意規制の在り方」は、主として第三者提供規制の緩和に関するものだと思われます。昨年10月以降、個情委は、個情法が考慮すべきリスクないし保護法益(として考えられるもの)として4種類を挙げる(さしあたり昨日の記事を参照)一方、それらに対する個情委自身の態度は明確には示していませんでしたが、「自身のデータを自由意思に従って制御できないリスク」という観点からは、スライドの①〜③は、「個人の権利利益の侵害が想定されない」とは言えない気がします。つまり、このスライドからは、個情委は「自身のデータを自由意思に従って制御できないリスク」を保護法益とは考えていないことが伺えます(このことは、昨日のスライドからもある程度読み取れたところですが、今回のスライドでより明確になったのではないかと思います)。
  • 「漏えい等発生時の対応(本人通知)の在り方」からは、個情委が、権利侵害の(具体的な)おそれを通知義務の要件とすることその他通知義務の要件を見直すことを検討していることが分かります。EU法と比較すると、日本法は、①当局報告・本人通知の要件が個情委規則で具体的に(そして必ずしも合理的ではない内容で)定められており、アドホックなリスク判断を許さない形になっていること、②当局報告・本人通知の要件が(個情法26条2項の「前項に規定する場合には」という形で)共通になっていることが特徴です。なお、①は規則改正でもある程度対応できるのに対し、②は法改正が必須です。
  • 「個人データの適正な取扱いに係る義務を負うべき者の在り方」は、具体的内容が分かりませんが(現行法でも受託者には一定の義務が課されており、個情委の監督対象となっています。)、資料本体の「個人データ等の適正な取扱いに係る義務を負うべき者の在り方を検討していく」という記述からすると、data controllerとprocessorを分離し、processorに固有の義務を正面から規定することを考えているのかもしれません(日本の他の業法でも、他国の個人データ保護法でも、委託者と受託者は区別するのが通常なので、正常化されることになります。特に、ガイドラインはパブコメが必要な運用だからなのか分かりませんが、委託に固有の規律がほとんどQ&Aに落ちている現状は、健全ではないと思います。)。

 

個人情報保護法の制度的課題の再整理

  • こちらは位置づけがよく分かりませんが、黄色ハイライト部分は1ページ目の記載項目の再掲、緑ハイライト部分は有識者検討会での検討項目、青ハイライト部分はそれ以外の項目です。青は先送りにされる可能性が高いですが、念の為コメントします。
  • 右側の2点目で、「特定の個人に対する働きかけが可能となる個人関連情報」という考え方が残っていることには、若干の疑問があります。そのような情報は、本人への連絡(そしてそれに続く勧誘)を可能にするものですが、同時に、データを用いた個人の評価・選別(昨日の記事を参照)を可能にするものでもあり、そのような評価・選別のリスクからの保護を個情法の保護法益として認めるのであれば(1ページ目の記載からは認めるように見えます。)、そのような情報はまさしく「個人情報」(個人情報概念を廃止するのであれば「個人データ」)に含まれるべきものです。なお、仮にそうするのであれば、昭和63年法に立ち返り、個人情報の定義規定の「特定の」を「当該」に改めることになります。
  • 右側の3点目で、「身体的特徴に係るデータ(顔特徴データ等)」という表現が用いられ、かつ、一意性・不変性への言及があるのは、中間整理の「生体データ」の記載と比べると、リスクへの解像度が上がっている気がします(1995年時点で最高裁が言っていたことなのですが;とはいえ最高裁もリスクの指摘はよかったもののそれとは関係がない事情で正当化を認めてしまいましたが)。ただ、そのようなデータのリスクの核心は誤りや差別であり(個情委が2023年に出した「犯罪予防や安全確保のための顔識別機能付きカメラシステムの利用について」は参考になると思います。)、当該リスクをコントロールする上で「取得時中心主義」的な要配慮個人情報規制をbiometric dataに及ぼすこと(GDPRに倣えばそうなるのだと思います。)がどれだけ役に立つかは、よく考えてほしいなと思います。ちなみに、EUのbiometric dataと比べると、「身体的特徴」は若干狭いです(典型例ではありますが)。

「第2回データ利活用制度・システム検討会」への個人情報保護委員会事務局提出資料について

第2回データ利活用制度・システム検討会への個人情報保護委員会事務局提出資料が、個情委の考えの変化を窺わせるとてもよい資料だと感じたので、それについて書いていきます。事務局ヒアリング資料はこちらにあります。(Twitterでの投稿の転載なので舌足らず気味ですがご容赦ください…)

 

個情法の保護法益について

  • 個情法の保護法益に関するスライドです。保護法益(その裏返しとしての個情法がカバーすべきリスク)として、さしあたり、A〜Dが考えられることが記載されています。
  • 真ん中の段は、最新の高木論文(情報法制研究16号)の指摘で、これに対し個情委が一定の理解を示していることが分かります。
  • 下の段の真ん中では、識別のリスクがより具体化されており、「特定の個人」の文言or解釈の修正に繋がる可能性(あくまで可能性ですが)があります。なお、仮に修正する場合、過剰な第三者提供制限も同時に修正する必要があります。
  • 下の段の右側は、(A)のリスクの例だと思われます。GDPR 22条は、自動決定(プロファイリングはその例です。)のうち、法的効果又はこれに類する重大な影響をもたらすものについての追加的ないし実効性担保のための規制にすぎず、自動決定においても、関連性、正確性、十分性のような基本原則(日本法で言えば利用目的による制限、正確性確保など)がまずは重要です(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679 (wp251rev.01))。

 

本人関与の意義

  • 本人関与の意義に関するスライドです。①と②が対比されています。本人関与とは、同意(≒拒否権)、訂正・追加・削除請求権、利用停止請求権、それらの実効性確保手段としての通知公表義務、開示請求権を指すものと思われます。
  • ②はいわゆる自己情報コントロール権説を指しているのだと思いますが、個人的には、自己情報コントロール権の論者も、論文を読むと、その実際の主張内容は①であるように感じています。そのため、(憲法13条の議論と個情法の議論は区別すべきですが、その点を措くとしても)個人情報コントロール権説or個人データ保護の権利(①)と、「宴のあと」事件型の古典的プライバシー(②?)が併存しているという理解には、実はそれほど異論はないのではと思っています。この場合、当然ながら②の対象は、客観的に秘匿性の認められる情報に限られ、②a)のように全ての個人データが対象となることはありません。

 

ガバナンス(エンフォースメント)について

  • 「ガバナンス」とありますが、その中身は、中核的な義務規定(利用目的特定義務・利用目的による制限、不適正利用禁止、第三者提供制限)の実効性をどのように担保するかという、エンフォースメントの議論であるように思います。その前提で、本人関与と事業者自身の取組みが対比され、両者ともに課題があることが示されています。
  • しかしながら、このスライドからは個情委の役割が抜け落ちていると感じます。本人と事業者を並べるのは適切ではなく、むしろ、本人と個情委のそれぞれから、事業者の個人データ処理に矢印が向くのが適切だと思います。言い換えれば、事業者が個人に対して一方的に行う個人データ処理(高木・情報法制研究14号)を適正化するため、事業者に各種の義務を課し、それを本人関与と個情委の監督が相互補完的にエンフォースするのが現行法だと思います(個情委はガバナンスの一翼を担う存在でもあるという宍戸委員の指摘は、そのように理解すべきではないかと思います)。したがって、委託が行われる場合に関しても、本人関与が機能せず、委託元(data controller)の監督も機能しない委託先(processor)があるのであれば、個情委が優先的に介入すべきであり、それこそが、data controllerだけでなくprocessorを個情委の監督下に置いている意味だと思います(その上で、現行法の委託の規律がその実態に最適化されていない、つまり、個情委によるprocessorの監督を容易にするツールがもっと必要なのであれば、data controllerとprocessorを分けた上で、必要な規定を入れればよいと思います。)。