「AI法」の版間の差分
Liesegang4423 (会話 | 投稿記録) m 数値の誤転記を修正 |
ProfessorPine (会話 | 投稿記録) m 広島AIプロセス新規立項を受けたリンク挿入。プチバグ修正など。 |
||
(同じ利用者による、間の1版が非表示) | |||
1行目: | 1行目: | ||
{{Pathnavbox| |
{{Pathnavbox| |
||
*{{Pathnav|[[欧州連合]]|[[規則 (EU)|規則]]}} |
*{{Pathnav|[[欧州連合]]|EU法|[[規則 (EU)|規則]]}} |
||
}} |
}} |
||
{{law|地域=[[欧州連合]]}} |
{{law|地域=[[欧州連合]]}} |
||
{{Infobox EU legislation |
{{Infobox EU legislation |
||
| number = |
| number = (EU) 2024/1689 |
||
| type = Regulation |
| type = Regulation |
||
| EEA = |
| EEA = yes |
||
| title = Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance) |
|||
| title = |
|||
| madeby = [[欧州議会]]と[[欧州連合理事会]]の共同採択 ([[欧州連合の立法手続#通常立法手続|通常立法手続]]) |
|||
| madeby = |
|||
| |
| Parties = 全EU加盟国およびEEA |
||
| madeunder = [[欧州連合の機能に関する条約|EU機能条約]]{{R|LEX-DocInfo}} |
|||
| OJrefurl = |
|||
| |
| OJrefurl = http://data.europa.eu/eli/reg/2024/1689/oj |
||
| |
| OJref = L, 2024/1689 |
||
| EPVote = {{Composition bar|523|618|hex=#9EFF9E}}<br>(2024年3月13日可決){{R|Adopt-EP-PR|LEX-Procedure}} |
|||
| implementation = |
|||
| CouncilVote = {{Composition bar|27|27|hex=#9EFF9E}}<br>(2024年5月21日可決){{R|LEX-Procedure|CouncilVote|page2=2}} |
|||
| application = |
|||
| |
| made = 2024年6月13日{{R|LEX-DocInfo}} |
||
| |
| commenced = 2024年8月1日{{R|LEX-DocInfo}} |
||
| implementation = <!-- 指令の国内法化日のため記入不要 --> |
|||
| CROpin = |
|||
| application = 2025年2月2日より条文ごとに段階的に適用開始{{R|LEX-DocInfo}} |
|||
| CommProp = [https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206&qid=1731715526196 COM/2021/206] (Document 52021PC0206、2021年4月21日提案) |
|||
| ESCOpin = [https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021AE2482 EESC 2021/02482] (2021年9月22日提出){{R|LEX-Procedure}} |
|||
| CROpin = [https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021AR2682 COR 2021/02682] (2021年12月2日提出){{R|LEX-Procedure}} |
|||
| ParlOpin = |
| ParlOpin = |
||
| Reports = [[欧州中央銀行]] 意見書: [https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021AB0040 CON/2021/40] (2021年12月29日提出){{R|LEX-Procedure}} |
|||
| Reports = |
|||
| replaces = |
| replaces = |
||
| amends = {{Unbulleted list|[[空港警備|空港や航空機の警備]]に関する規則 (EC) No [https://eur-lex.europa.eu/eli/reg/2008/300/oj 300/2008]|農林業用車両に関する規則 (EU) No [https://eur-lex.europa.eu/eli/reg/2013/167/oj 167/2013]|二輪車・三輪車・人力の[[四輪自転車]]に関する規則 (EU) No [http://data.europa.eu/eli/reg/2013/168/oj 168/2013]|船用機器指令 [http://data.europa.eu/eli/dir/2014/90/oj 2014/90/EU]|鉄道システムのEU域内互換性に関する指令 (EU) [http://data.europa.eu/eli/dir/2016/797/oj 2016/797]|自動車などの型式認証に関する規則 (EU) [http://data.europa.eu/eli/reg/2018/858/oj 2018/858]|[[欧州航空安全機関]]の設立などを定めた規則 (EU) [https://eur-lex.europa.eu/eli/reg/2018/1139/oj 2018/1139]|自動車などの型式認証に関する部分改正規則 (EU) [https://eur-lex.europa.eu/eli/reg/2019/2144/oj 2019/2144]|消費者団体訴訟指令 (EU) [https://eur-lex.europa.eu/eli/dir/2020/1828/oj 2020/1828]}} |
|||
| amends = |
|||
| amendedby = |
| amendedby = |
||
| replacedby = |
| replacedby = |
||
| status = |
| status = current |
||
}} |
}} |
||
[[欧州連合]] (EU) の'''AI法''' (エーアイほう、別称: '''AI規則'''{{Sfn|EU日本政府代表部|2024|p=1}}{{Sfn|IISE|2024|p=1}}、{{lang-en-short|'''the Artificial Intelligence Act'''}}){{Efn2|他には'''AI Act'''{{R|DeloitteJP2024}}や略称の'''AIA'''{{R|DeloitteJP2024}}、'''AI規制法'''{{R|Soumu-AtsumiSakai|KPMG2024}}、'''欧州人工知能法'''{{R|CRDS2024}}、'''EU人工知能法'''{{Sfn|EUJC|2024|p=1}}の呼称が日本語文献で用いられており、訳語の統一性はない。}}は、世界初の[[人工知能]] (AI) に関する包括的な規制法である{{Sfn|情報通信白書|2024|pp=52, 59}}{{Efn2|「包括的」なAI規制としてはAI法が世界初だが{{Sfn|情報通信白書|2024|pp=52, 59}}、個別トピックに応じたAI規制を複数導入している国の例としては中国が挙げられる。中国ではAIの[[アルゴリズム]]に関する規制だけでも「インターネット情報サービスアルゴリズム・レコメンデーション管理規定」、「インターネット情報サービス深度合成アルゴリズム管理規定」、生成AIに特化した「生成人工知能サービス管理暫行弁法」と少なくとも3つの規制法が並存する{{R|China-AI-PwC}}。}}。AI法は信頼性の高いAIの導入を促進しつつ、有害リスク度に応じて (1) 許容できないリスク、(2) 高リスク、(3) 限定的なリスク、(4) 最小限のリスクの4レベルに分類して異なる規制や義務を課す{{Sfn|情報通信白書|2024|p=59}}{{Sfn|EU日本政府代表部|2024|p=1}}。違反時にはレベルごとに異なる制裁金が科される{{Sfn|EU日本政府代表部|2024|pp=1, 40}}。 |
|||
'''AI法'''('''人工知能法''' 英:'''The Artificial Intelligence Act''' ('''AI Act''')) は、[[欧州連合]]における[[人工知能]] (AI) に関する規制法。 2021年4月21日に[[欧州委員会]]によって提案され<ref>{{Cite web |title=EUR-Lex - 52021PC0206 - EN - EUR-Lex |url=https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206 |url-status=live |archive-url=https://web.archive.org/web/20210823212239/https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206 |archive-date=23 August 2021 |access-date=2021-09-07 |website=eur-lex.europa.eu}}</ref>、2024年3月13日に可決された<ref>{{cite web |title=World’s first major act to regulate AI passed by European lawmakers |url=https://www.cnbc.com/2024/03/13/european-lawmakers-endorse-worlds-first-major-act-to-regulate-ai.html |access-date=13 March 2024 |date=14 March 2024 |work=CNBC}}</ref>。この法律は、AIに関する共通の規制および法的枠組みを確立することを目的とする<ref>{{cite web |title=Proposal for a Regulation laying down harmonised rules on artificial intelligence {{!}} Shaping Europe's digital future |url=https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence |website=digital-strategy.ec.europa.eu |date=21 April 2021 |access-date=2023-01-09 |language=en |archive-date=4 January 2023 |archive-url=https://web.archive.org/web/20230104120436/https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence |url-status=live }}</ref>。 |
|||
その範囲には、幅広い分野のあらゆる種類のAIが含まれる([[軍事]]、[[国家安全保障]]、[[研究]]、および非専門的目的のみに使用されるAIは例外<ref>{{Cite news |date=9 December 2023 |title=Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world |url=https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/ |access-date=January 6, 2024 |work=Council of the EU |archive-date=10 January 2024 |archive-url=https://web.archive.org/web/20240110092304/https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/ |url-status=live }}</ref>)。製品規制の一環としてAIのプロバイダや、専門的な用途でAIを使用する団体を規制する<ref name=":4">{{Cite web |last=Mueller |first=Benjamin |date=2021-05-04 |title=The Artificial Intelligence Act: A Quick Explainer |url=https://datainnovation.org/2021/05/the-artificial-intelligence-act-a-quick-explainer/ |access-date=2024-01-06 |website=Center for Data Innovation |language=en-US |archive-date=14 October 2022 |archive-url=https://web.archive.org/web/20221014172842/http://datainnovation.org/2021/05/the-artificial-intelligence-act-a-quick-explainer/ |url-status=live }}</ref>。 |
|||
またリスク分類とは別に、「汎用AIモデル」({{En|general-purpose AI models}}、略称: GPAI) を対象とした特別規定もAI法では追加で設けている{{Sfn|EU日本政府代表部|2024|p=4}}。AI法の立法過程では、汎用AIモデルの代表例として[[ChatGPT]]や[[Gemini]] (旧名: Bard) といった[[生成AI]]が[[欧州議会]]から名指しされ{{Sfn|欧州議会 GPAI|2023|p=1}}、差別や偽情報といった有害コンテンツの生成や、個人情報の不適切な取扱などの懸念が呈されている{{Sfn|欧州議会 GPAI|2023|p=2}}。 |
|||
AI法は、損害を引き起こす[[リスク]]に基づいてAIアプリケーションを分類し、規制することを目的とする。この分類には、リスクの4つのカテゴリ (「許容できない」、「高」、「限定的」、「最小限」) に加えて、汎用目的AI向けの1つの追加カテゴリが含まれる。許容できないリスクがあるとみなされるアプリケーションは禁止され、高リスクのものはセキュリティ、透明性、品質に関する義務を遵守し、適合性評価を受ける必要がある。限定的リスクのAIアプリケーションには透明性の義務のみがあり、最小限のリスクを表すものは規制されない。汎用目的のAIには透明性要件が課され、特に高いリスクを表す場合には追加の厳しい評価が行われる<ref name=":1">{{Cite web |last=Espinoza |first=Javier |date=December 9, 2023 |title=EU agrees landmark rules on artificial intelligence |url=https://www.ft.com/content/d5bec462-d948-4437-aab1-e6505031a303 |access-date=2024-01-06 |website=Financial Times |archive-date=29 December 2023 |archive-url=https://web.archive.org/web/20231229130308/https://www.ft.com/content/d5bec462-d948-4437-aab1-e6505031a303 |url-status=live }}</ref><ref name=":2">{{Cite news |title=EU AI Act: first regulation on artificial intelligence |url=https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence |access-date=2024-01-06 |work=European Parliament News |language=en |archive-date=10 January 2024 |archive-url=https://web.archive.org/web/20240110162551/https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence |url-status=live }}</ref>。AI開発者は、Llama 3.1が欧州連合(EU)のAI法制化を避けるためにテキストのみを処理するようになった例として、Llama 3.1を挙げ、AI法制化がAIと各国の発展を妨げていると主張している<ref>{{Cite web |title=Meta Restricts Multimodal Models in The European Union Due to Privacy Concerns |url=https://www.deeplearning.ai/the-batch/meta-restricts-multimodal-models-in-the-european-union-due-to-privacy-concerns/ |website=Meta Restricts Multimodal Models in The European Union Due to Privacy Concerns |date=2024-07-24 |access-date=2024-07-26 |language=en}}</ref>。 |
|||
仮に日本や米国などのEU域外で設立された団体や他国民が開発したAIでも、それがEU域内に輸入されて販売・利用されればAI法の規制対象になる (いわゆる域外適用){{Sfn|EU日本政府代表部|2024|p=3}}。ただし、軍事・防衛や科学研究に特化したAIなど、一部条件に合致するAIは同法の規制対象から除外されている{{Sfn|EU日本政府代表部|2024|p=4}}。 |
|||
== リスクカテゴリ == |
|||
アプリケーションの種類に応じてさまざまなリスクカテゴリがあり、特に汎用目的の[[生成的人工知能|生成AI]]に特化したリスクカテゴリがある。 |
|||
AI法は禁止事項や義務を規制当局からトップダウンで示すだけでなく、AIに従事する事業者が行動規範 ({{En|Code of Conduct}}){{Sfn|EU日本政府代表部|2024|p=41}}{{Sfn|IISE|2024|p=39}}や実践規範 ({{En|Code of Practice}}){{Sfn|EU日本政府代表部|2024|p=31}}{{Sfn|IISE|2024|p=34}}を自律的に定めて運用していくボトムアップのアプローチも併用している。またEU基準に適合したAIには民間非営利団体から[[CEマーク]]が付与され、安全性が可視化される{{Sfn|IISE|2024|p=27}}。EUの行政執行機関である[[欧州委員会]]内に[[AIオフィス]]<!-- 英語版に記事なし。仮リンク挿入できず -->が設置されており、こうした官民連携の調整・推進役を担っている{{Sfn|EU日本政府代表部|2024|p=36}}。 |
|||
*許容できないリスク(英:Unacceptable risk):このカテゴリに該当するAIアプリケーションは禁止される。これには人間の行動を操作するAI、公共の場で[[顔認識システム|顔認識]]を含むリアルタイムのリモート[[生体認証]]を使用するAI、および個人の特徴、[[社会経済的地位]]、または行動に基づいて人々をランク付けする[[ソーシャルスコアリング]]に使用されるAIが含まれる<ref name=":2" /> 。 |
|||
AI法は2024年8月1日に[[施行|発効]]し{{Sfn|EU日本政府代表部|2024|p=2}}、条文ごとに段階的に適用を開始する{{R|LEX-DocInfo}}{{Sfn|EU日本政府代表部|2024|p=42}}。(1) 許容できないリスクのAIシステムは2025年2月2日に原則禁止となる{{Efn2|時系列の主な適用条項をまとめると、2025年2月2日より (1) 許容されないリスクのあるAIが全面禁止。2025年8月2日より汎用AIモデルの義務履行、汎用AIモデル以外に対する罰則規定が適用開始。2026年8月2日より第6条第1項以外の全条項が適用され、「本格適用」の位置づけ。2027年8月2日より残った第6条第1項の高リスクAIシステムのうち、他EU法令と多重規制となるものに対する規制が適用開始{{Sfn|EU日本政府代表部|2024|p=42}}{{R|LEX-DocInfo}}。}}。 |
|||
*高リスク(英:High-risk): [[健康]]、[[安全]]、または[[基本的人権]]に重大な脅威をもたらすAIアプリケーション。特に、[[医療]]、[[教育]]、人材採用、重要インフラ管理、[[行政]]、[[司法]]分野で使用されるAIが含まれる。品質、透明性、人間による監督、セキュリティの義務の対象となる。市場に投入される前だけでなく、投入後にも評価される必要がある<ref name=":2" />。また、高リスクアプリケーションのリストは、AI法自体を修正することなく拡張できる<ref name=":4" />。 |
|||
== 規制対象の定義と規制内容 == |
|||
*汎用目的AI(英:General-purpose AI)(GPAI): このカテゴリは2023年に追加され、特に[[ChatGPT]]などの基盤モデルが含まれる。これらは透明性要件の対象となる。システムリスクを引き起こす可能性がある影響の大きい汎用目的AIシステム (特に、<math>10^{25}</math>[[FLOPS]]を超える計算能力を使用してトレーニングされたもの<ref>{{Cite web |title=Press corner |url=https://ec.europa.eu/commission/presscorner/home/en |website=European Commission - European Commission |access-date=2024-08-10}}</ref><ref name=":3">{{Cite web |last=Bertuzzi |first=Luca |date=2023-12-07 |title=AI Act: EU policymakers nail down rules on AI models, butt heads on law enforcement |url=https://www.euractiv.com/section/artificial-intelligence/news/ai-act-eu-policymakers-nail-down-rules-on-ai-models-butt-heads-on-law-enforcement/ |access-date=2024-01-06 |website=Euractiv |language=en-GB |archive-date=8 January 2024 |archive-url=https://web.archive.org/web/20240108215257/https://www.euractiv.com/section/artificial-intelligence/news/ai-act-eu-policymakers-nail-down-rules-on-ai-models-butt-heads-on-law-enforcement/ |url-status=live }}</ref>) は徹底的な評価プロセスを受ける必要がある<ref name=":2" />。 |
|||
以下のとおり、AI法では「何」(システムの種類) および「誰」(AIに携わる者の種類) を規制対象に含めるのかを分類している。 |
|||
なお、立法過程では当初法案から数千か所に修正が加えられており{{R|Timeline-FLI}}、AI「法案」を解説した文献は古い条文案に基づいていて正確性を欠く可能性があるため、参照時には留意が必要である。 |
|||
*限定的なリスク(英:Limited risk):これに分類されるシステムは人工知能システムと対話していることをユーザーに通知し、ユーザーが選択を行えるようにすることを目的とした透明性義務の対象となる。このカテゴリには、画像、音声、または映像([[ディープフェイク]]など)の[[生成AI]]が含まれる<ref name=":2" />。このカテゴリではパラメータが公開されている無料および[[オープンソース]]のモデルに対しては、訓練に使用されたコンテンツに関する要約を作成する義務などを除いて例外とする規定が設けられた<ref name=":3" /><ref>{{cite web |title=Regulating Chatbots and Deepfakes |url=https://www.mhc.ie/hubs/the-eu-artificial-intelligence-act/regulating-chatbots-and-deepfakes-under-the-eu-ai-act |website=mhc.ie |publisher=Mason Hayes & Curran |language=en |access-date=11 January 2024 |archive-date=9 January 2024 |archive-url=https://web.archive.org/web/20240109141128/https://www.mhc.ie/hubs/the-eu-artificial-intelligence-act/regulating-chatbots-and-deepfakes-under-the-eu-ai-act |url-status=live }}</ref><ref>https://artificialintelligenceact.eu/recital/60f/</ref>。 |
|||
=== 規制対象システムの分類 === |
|||
*最小限のリスク(英:Minimal risk):これには[[ゲーム]]や[[スパムフィルタ]]に使用されるAIシステムなどが含まれる。ほとんどのAIはこのカテゴリに入る<ref>{{Cite web |last=Liboreiro |first=Jorge |date=2021-04-21 |title='Higher risk, stricter rules': EU's new artificial intelligence rules |url=https://www.euronews.com/my-europe/2021/04/21/the-higher-the-risk-the-stricter-the-rule-brussels-new-draft-rules-on-artificial-intellige |access-date=2024-01-06 |website=Euronews |language=en |archive-date=6 January 2024 |archive-url=https://web.archive.org/web/20240106182629/https://www.euronews.com/my-europe/2021/04/21/the-higher-the-risk-the-stricter-the-rule-brussels-new-draft-rules-on-artificial-intellige |url-status=live }}</ref>。これは規制の対象とならず、加盟国は{{仮リンク|最大調和規定|en|Maximum harmonisation}}により、追加の規制は禁止される。このようなシステムの設計または利用に関連する既存の国内法は適用の対象にならない。ただし、自主規制が提案されている<ref name="Veale 20212">{{Cite journal |last=Veale |first=Michael |date=2021 |title=Demystifying the Draft EU Artificial Intelligence Act |journal=Computer Law Review International |volume=22 |issue=4 |arxiv=2107.03721 |doi=10.31235/osf.io/38p5f |s2cid=241559535}}</ref>。 |
|||
{{Tree list}} |
|||
* システム全般 |
|||
** AIシステム |
|||
*** AI法における規制対象内 |
|||
**** Weak or Narrow AI (ANI) |
|||
**** Strong or General AI (AGI) |
|||
***** 汎用AIモデル ({{En|General-purpose AI models}}、略称: GPAI) |
|||
****** システミックリスク ({{En|Systemic risk}}) を有するGPAI |
|||
****** システミックリスクを有さないGPAI |
|||
*** AI法における規制対象外 |
|||
** AI以外の一般的なソフトウェア |
|||
{{Tree list/end}} |
|||
AI法が想定するAIと一般的なソフトウェアの相違点であるが、自律的な動作や予測・推奨コンテンツの生成といった特徴が挙げられ{{Sfn|IISE|2024|p=8}}{{Sfn|EUJC|2024|p=2}}、このようなAIの要件定義は国際機関の[[経済協力開発機構]] (OECD) で用いられているものと類似している{{Sfn|EUJC|2024|p=2}}。 |
|||
AIシステム全般に対し、4段階のリスク度に応じた規制・義務をAI法では規定している。AI法ではこれを「リスクベースアプローチ」と呼んでいる{{Sfn|EU日本政府代表部|2024|p=6}}{{Sfn|情報通信白書|2024|p=59}}。汎用AIモデル (GPAI) は5つ目のリスク分類ではなく、4段階のリスク分類とは別軸で捉えられている{{Sfn|IISE|2024|p=3}}。 |
|||
[[File:AIA SubjectMatters ja.png|left|400px|AI法の規制対象システム]] |
|||
{{Clearleft}} |
|||
汎用AIモデルとは何かについて、AI法の立法者である[[欧州議会]]でさえも「確固とした定義はない」とことわりを入れている{{Sfn|欧州議会 GPAI|2023|p=1}}。その上で、[[アルゴリズム]]やその背景にある理論上の観点から "Weak or Narrow AI" (ANI) と "Strong or General AI" (AGI) にAI全般を二分している{{Efn2|立法府の欧州議会によるこのような分類方法は、行政府である[[欧州委員会]]が2021年に公表した論考で用いられたものを踏襲している{{Sfn|JRC|2021|p=11}}{{Sfn|欧州議会 GPAI|2023|p=1}}。}}。特定目的に特化したAIであるANIとは、たとえば画像認識や音声スピーチ認識といった、特定の目的に沿ってデータを処理するAIシステムである{{Sfn|欧州議会 GPAI|2023|p=1}}。一方、多用途で影響力の大きいAGIは、たとえば[[自然言語]] (プログラミング言語ではなく人々が日常的に会話や文書で使用する言語) で記述された大量のデータを読み取るだけでなく、[[ディープラーニング]] (深層学習) 技術によって文脈なども理解できる[[大規模言語モデル]] (LLM) などを備えており、こうした革新的な技術を用いている点でANIとは異なる{{Sfn|欧州議会 GPAI|2023|p=1}}。換言するとAGIとは、人間の知的なタスク処理を代行しうるシステムを指す{{Sfn|JRC|2021|p=11}}。 |
|||
こうした高度なタスク処理が可能なAGIのうち、特にテキスト文書やイメージ画像、動画などのコンテンツを生成できる能力を持つものを、AI法では「汎用AIモデル」と呼んでいる{{Sfn|欧州議会 GPAI|2023|p=1}}。欧州議会では汎用AIモデルの例として、[[ChatGPT]] ([[Microsoft]]社と提携関係にある団体[[OpenAI]]が開発) や[[Gemini]] (旧称: Bard、[[Google]]傘下による開発) の名前を挙げている{{Sfn|欧州議会 GPAI|2023|p=1}}。このような汎用AIモデルは、さまざまなシステムやサービスの基礎・基盤としての重要な役割を担う一方で{{Sfn|欧州議会 GPAI|2023|p=1}}、倫理的・社会的な問題を引き起こすリスクが懸念されている{{Sfn|欧州議会 GPAI|2023|p=2}}。たとえば、人種差別や暴力、レッテル張りするようなコンテンツの生成、個人情報や機微情報の取扱不備、偽情報や詐欺情報の生成といった問題が具体的に挙げられる{{Sfn|欧州議会 GPAI|2023|p=2}}。 |
|||
なお、AI「システム」とAI「モデル」は別個の概念としてAI法では用語を使い分けている。AIモデルはAIシステムに統合され (組み込まれ) た形で用いられる{{Sfn|EU日本政府代表部|2024|p=5}}。そのためシステム開発プロセスの概念上はモデルが川上、システムが川下 ({{En|Downstream}}) の位置づけになっている{{Sfn|EU日本政府代表部|2024|p=5}}。 |
|||
以下、AIシステム別の定義や義務、規制行為を解説する。 |
|||
==== (1) 許容できないリスク ==== |
|||
許容できないリスク ({{Lang-en-short|Unacceptable risk}}) のあるAIは重大な危害を与えうるため{{Sfn|IISE|2024|p=13}}、AI法 第5条第1項に基づいて禁止される{{Sfn|IISE|2024|pp=13–14}}。同条項の (a)号から (h)号で禁止される利用方法が具体的に列記されている{{Sfn|IISE|2024|pp=12–14}}{{Sfn|EU日本政府代表部|2024|pp=8–9}}。うち (e)号から (h)号の4項目は生体データ関連である{{Sfn|IISE|2024|p=12}}。 |
|||
* (a)号: [[サブリミナル効果|サブリミナル]]技術 - AI法の前文 (29) によると、音声または画像、映像を人間が意識的に知覚できない方法で表示させる、あるいは人の自律的な意思決定を歪める欺瞞的な技術を指す{{Efn2|「サブリミナル」の定義について、前文 (29) の英語原文は"...subliminal components such as audio, image, video stimuli that persons cannot perceive, as those stimuli are beyond human perception, or other manipulative or deceptive techniques that subvert or impair person’s autonomy, decision-making or free choice in ways that people are not consciously aware of those techniques or, where they are aware of them..." と記述している。}}。 |
|||
* (b)号: 脆弱性の悪用 - 特定の年齢層、障害の有無、[[社会経済的地位]]といった個人ないし集団の特徴を悪用し、重大な損害などを与えうるシステム{{Sfn|IISE|2024|pp=12–13}}{{Sfn|EU日本政府代表部|2024|p=8}} |
|||
* (c)号: [[ソーシャルスコアリング]]<!-- 英語版に記事なし。仮リンク挿入できず --> - ソーシャルスコアリングとは、個人の日常生活の言動が監視され、社会全体にとってどの程度有益か社会信用がスコア (数値) で評価される仕組みである{{R|SocScore-Tailor}}。AI法では、社会的行動や人格的特徴に基づいて人々を不当にランク付けするAIシステムのうち、特に分析データの元の文脈と乖離している、あるいはスコアリングによって不当・不公平な影響をおよぼすものを禁じる{{R|EPNews2024}}{{Sfn|IISE|2024|p=12}}{{Sfn|EU日本政府代表部|2024|p=8}}{{Efn2|AI法の前文 (31) はソーシャルスコアリングの項であり、ソーシャルスコアリングが差別や不公平・不正義をもたらしうるとして、規制の背景を述べている{{R|SocScore-Rec31}}。}}。 |
|||
* (d)号: 犯罪予測 - 犯罪捜査で用いられる[[プロファイリング]]などによって、個々人が犯罪を犯すリスクを評価・予測するシステム (ただし犯罪に直結する客観的事実に基づいた人物評価の場合を除く){{Sfn|IISE|2024|p=12}}{{Sfn|EU日本政府代表部|2024|p=8}} |
|||
* (e)号: 顔画像の[[スクレイピング]] (データ収集・抽出) - インターネットあるいは[[監視カメラ]] (CCTV) から無差別に顔画像を収集して作成されたデータベース{{Sfn|IISE|2024|p=12}}{{Sfn|EU日本政府代表部|2024|p=8}} |
|||
* (f)号: 感情推測 - 職場ないし教育機関で用いる場合は原則禁止 (ただし、治療目的といった医療上ないし安全上の理由を除く){{Sfn|IISE|2024|p=12}}{{Sfn|EU日本政府代表部|2024|p=8}} |
|||
* (g)号: 生体分類 (属性推定システム) - 人種、政治的意見、労働組合への加入、宗教・思想上の信条、性生活・性的指向を推測するシステム{{Sfn|IISE|2024|p=12}}{{Sfn|EU日本政府代表部|2024|p=8}} |
|||
* (h)号: リアルタイム・リモート生体識別 (略称: RBI) - 警察などの法執行機関によるAI常時監視システムは原則禁止 (ただし行方不明者の捜索やテロ犯罪組織の容疑者の位置特定といった深刻な状況下は特例として除外する{{Efn2|あくまで警察などの法執行機関がこのような状況下で用いる場合のみ、AI法の禁止除外に指定されている。法執行機関以外のRBIは禁止されており、AI法以前から運用されている2016年の[[EU一般データ保護規則]] (GDPR) 第9条の規定と矛盾するものではない{{Sfn|IISE|2024|p=14}}。}}){{Sfn|IISE|2024|p=14}}{{R|Adopt-EP-PR}} |
|||
(a)号の欺瞞的なサブリミナル技術と (b)号の脆弱性の悪用については、情報法専門家による欺瞞的な (人を欺くような) システムデザインの観点からの論考がある。AI法成立以前にも欺瞞的なデザインは存在し、「[[ダークパターン]]」({{En|Dark patterns}}) の総称で知られていた{{Sfn|Leiser|2024|p=6}}。ダークパターンの身近な具体例を挙げると、航空チケット予約サイトで追加オプションサービスがデフォルトで選択されているようなウェブデザインである。オプションを希望しないユーザーの一部はこれに気付かずに購入してしまう{{Sfn|Leiser|2024|p=7}}。こうした表層的な[[ユーザーインターフェース]] (UI) のテクニックだけでなく、専門家の知見と技術なしでは見破るのが非常に困難な[[システムアーキテクチャ|システムアーキテクチャー]] (システムの根本的な設計) におよぶ欺瞞的なデザインが問題視されている{{Sfn|Leiser|2024|p=7}}。 |
|||
[[File:Dark patterns example.svg|thumb|欺瞞的なデザイン技術「[[ダークパターン]]」の一例。カウントダウンを表示してタイムセールで消費者を煽る。チェックボックスは二重否定の分かりづらい表現。]] |
|||
AI法以前は主に2つの側面からこうした欺瞞的デザインへの対応を試みてきた。まず消費者保護や[[悪徳商法]]取締の切り口から、2005年制定の{{仮リンク|不公正取引慣行指令|en|Unfair Commercial Practices Directive 2005}} (略称: UCPD) をはじめとする{{仮リンク|消費者法 (欧州)|label=欧州消費者法|en|European consumer law}}の改正である{{Sfn|Leiser|2024|p=8}}。もう一つの切り口が、2016年制定の[[EU一般データ保護規則]] (略称: GDPR 、Regulation (EU) [https://eur-lex.europa.eu/eli/reg/2016/679/oj 2016/679]) による個人データ保護や{{Sfn|Leiser|2024|p=8}}、さらにユーザーの保護範囲を広げた2022年制定の{{仮リンク|デジタルサービス法|en|Digital Services Act}} (略称: DSA、Regulation (EU) [https://eur-lex.europa.eu/eli/reg/2022/2065/oj 2022/2065]) である{{Sfn|Leiser|2024|p=9}}。DSAの第25条(1)項はダークパターン対策が意識されており、ユーザーの自律的な意思決定を歪めるような欺瞞的デザインを禁じている{{Sfn|Leiser|2024|p=9}}。しかしDSAは条文の文言に曖昧さがあり、GDPRやUCPDといった他法と部分的に重複しうる{{Sfn|Leiser|2024|p=9}}。また日進月歩の欺瞞的デザインに対し、「オンライン・プラットフォーム」にしか適用されないDSAはどこまで有効なのか、疑問も呈されている{{Sfn|Leiser|2024|p=9}}。 |
|||
一方AI法の第5条は、不公正取引慣行指令やDSAの第25条だけではカバーしきれないタイプの欺瞞的なデザインにも対応しうると考えられている{{Sfn|Leiser|2024|pp=13–14}}。その一つが、[[アルゴリズム]]に深く根差した欺瞞的デザイン ({{En|Algorithmic manipulation}}) である。このタイプはたとえば、過去履歴に基づいてユーザーごとにカスタマイズしたコンテンツ表示されるアルゴリズムによって、無意識のうちに偏った情報にばかりユーザーが触れてしまう「[[エコーチェンバー現象]]」が問題視されている{{Sfn|Leiser|2024|p=11}}。もう一つのタイプが、システム依存を起こす欺瞞的デザイン ({{En|System dependency and control}}) である。その特徴として「[[ネットワーク外部性|ネットワーク効果]]」がある{{Sfn|Leiser|2024|p=12}}。ネットワーク効果とは、SNSのような[[デジタル・プラットフォーム]]がひとたび多くのユーザーを獲得すると、既存ユーザーが新規潜在ユーザーを呼び込む、あるいはオンラインショッピングのように新規出店者を呼び込む現象である{{Sfn|情報通信白書|2023|pp=19–20}}{{R|PFLaw-Nissei}}。その結果、魅力的な代替サービスが新たに登場しても乗り換えづらくなってさらにユーザー数が増える連鎖現象が確認されている{{Sfn|情報通信白書|2023|pp=19–20}}。 |
|||
(c)号のソーシャルスコアリングもAIとの親和性が高い。これはAIが人の顔認証や言動分析に長けていることから、スコアリングに必要な監視データの解析に利用できるためである{{R|SocScore-Tailor}}。低スコアの評価が下された個人は、利用できる教育機会や医療サービス、公共財に制限がかかるといった使い方が想定される{{R|SocScore-Tailor}}。ただし倫理面で問題を抱えていることから、ソーシャルスコアリングの制度を導入しているのは世界的にも中国政府のみの状況である{{R|SocScore-Tailor}}。 |
|||
ところが社会全体ではなく、よりミクロなレベルで見るとたとえば[[ライドシェア|配車サービス]]の米系企業[[Uber]]はトラブルのあった利用客をブラックリスト入りさせる仕組みを運用している。また米国ニューヨークでは、[[ソーシャルメディア]]上の言動を元に保険会社が保険加入者の保険料を個別設定する商慣行が認められている。こうしたミクロなレベルでは欧米諸国でもソーシャルスコアリングは行われているのが実態である{{R|SocScore-Tailor}}。ソーシャルスコアリングにAIを活用するには、高い精度の監視データと解析能力が前提となるが、実際にはバイアスのかかったデータが混じったり、不当なスコアリング結果を出してしまう技術的な問題が指摘されている。これに対応すべくAI法第5条で不当なソーシャルスコアリングを行うAIが禁止された{{R|SocScore-Tailor}}。 |
|||
==== (2) 高リスク ==== |
|||
高リスク ({{Lang-en-short|High risk}}) なAIシステムは以下の2カテゴリーに分類される{{Sfn|IISE|2024|p=15}}{{Sfn|EU日本政府代表部|2024|p=10}}。 |
|||
* 第1カテゴリー【既存】: 身体などの安全性にかかわるリスク - AI法成立以前のEU諸法で安全面の観点から既に規制を受けていた製品。ここで言う「諸法」はAI法の附則 1 (Annex I) のSection AおよびBで計20本列記されており、玩具や船舶、エレベーターや医療機器などが規制製品対象に含まれる。これら諸法で「第三者による適合性評価義務の対象」と指定されている場合に限る{{Efn2|Annex I Section Aで12本が列記されている。法令番号の頭4桁は法令の成立西暦年を意味する。1. 機械指令 Directive 2006/42/EC、2. 玩具の安全性指令 Directive 2009/48/EC、3. レジャー用・個人用船舶指令 Directive 2013/53/EU、4. エレベーター及びその部品に関する指令 Directive 2014/33/EU、5. 爆発性環境下での保護システムに関する指令 Directive 2014/34/EU、6. 無線機器指令 Directive 2014/53/EU、7. 圧力機器指令 Directive 2014/68/EU、8. ロープウェイ設備規則 Regulation (EU) 2016/424、9. 個人用保護器具規則 Regulation (EU) 2016/425、10. ガス燃料機器規則 Regulation (EU) 2016/426、11. 医療機器規則 Regulation (EU) 2017/745、12. 体外診断用医療機器規則 Regulation (EU) 2017/746{{Sfn|EU日本政府代表部|2024|p=10}}{{Sfn|IISE|2024|p=15}}。}}{{Efn2|Annex I Section Bで8本が列記されている。Section Aの12本から引き続き、連番を振る。13. 民間航空の安全性に関する規則 Regulation (EU) No 300/2008、14. 二輪、三輪及び四輪車両に関する規則 Regulation (EU) No 168/2013、15. 農林業用車両に関する規則 Regulation (EU) No 167/2013、16. 船舶用機器に関する指令 Directive 2014/90/EU、17. 鉄道網の相互運用性に関する指令 Directive (EU) 2016/797、18. 自動車及びその部品に関する規則 Regulation (EU) 2018/858、19. 自動車の型式承認に関する規則 Regulation (EU) 2019/2144、20. 民間航空分野の共通ルールに関する規則 Regulation (EU) 2018/1139{{Sfn|IISE|2024|p=15}}{{Sfn|EU日本政府代表部|2024|p=4}}。}}。 |
|||
* 第2カテゴリー【新規】: 基本的人権などにかかわるリスク - AI法成立で新たに規制を受ける領域{{Sfn|IISE|2024|p=15}}。AI法の附則 3 (Annex III) で8領域が列記されているが{{Sfn|IISE|2024|p=15}}{{Sfn|EU日本政府代表部|2024|p=4}}、EU行政機関である欧州委員会による委任法令{{Efn2|AI法は、立法府である欧州議会と欧州連合理事会の共同採択による[[欧州連合の立法手続#通常立法手続|通常立法手続]]を経て制定されている{{R|LEX-DocInfo}}。このようなEUの法令を「派生法」と呼ぶ。派生法を実施するために採択される施行法を「委任法令」、その手続を「委任立法」と呼ぶ。行政府である欧州委員会が委任立法の権限を有している{{R|EUSystem-Hamamoto}}。}}で別途、この8領域に追加・修正・削除が可能となっている{{Sfn|EU日本政府代表部|2024|p=4}}。 |
|||
** [[生体認証]] |
|||
** 重要インフラの安全部品 (通信、交通、水道、ガス、電力など) |
|||
** 教育・職業訓練 (教育機関などへの入学割当、学習評価、テスト中の監視など) |
|||
** 労務 (人材選考採用、昇進・解雇・給与などの労務管理、職務分掌・役割分担の決定など) |
|||
** 公共性の高いサービスの利用判断 (公的給付金の個人審査、クレジットカードの個人信用調査、生命保険や健康保険の保険料率個別計算、警察・消防・救急車などの対応優先度決定など) |
|||
** 警察などの法執行 (犯罪被害者になるリスク評価、犯罪被疑者・再犯者の予測など) |
|||
** 移民・亡命・国境管理 (不法移民のリスク評価、[[ポリグラフ]] (心拍や呼吸測定機) による移民・亡命審査など) |
|||
** 司法手続および民主的手続 (司法当局による事実調査・法律解釈、選挙・住民投票に影響を与える行為など) |
|||
これらの領域にAIシステムが用いることは禁じられていない。しかしAIシステムの開発者や提供者にはリスク管理の手法文書化、リスク管理の組織体制構築、AIシステムの技術文書作成、AI学習データの品質管理、自動まかせにしない人的監視、異常検知と重大インシデントの当局報告、利用者がAIによる生成だと判別がつく透明性の担保といった義務が課される。具体的な義務は、AI法 第8条-第15条 (高リスクAIシステムが満たすべき要件){{Sfn|EU日本政府代表部|2024|pp=15–18}}、第16条-第25条{{Sfn|EU日本政府代表部|2024|pp=13–14}}、第40条-第44条 (高リスクAIシステムの適合性評価手続){{Sfn|EU日本政府代表部|2024|p=19}}、第48条-第51条{{Sfn|EU日本政府代表部|2024|pp=13–14, 26–27}}、第62条{{Sfn|EU日本政府代表部|2024|pp=13–14}}、第72条 (市販後モニタリング){{Sfn|EU日本政府代表部|2024|p=20}}、第73条 (インシデント報告義務){{Sfn|EU日本政府代表部|2024|p=21}}も参照のこと。EU域外の者が提供する場合はEU域内代理人を指定し、これらの義務遂行を委任する必要がある{{Sfn|EU日本政府代表部|2024|p=14}}。 |
|||
なお[[#立法の沿革]]で後述のとおり、AI法は当初法案から数千か所の修正が加えられており、特に高リスクAIシステム関連の条項は2023年12月9日合意の{{仮リンク|三者対話 (欧州連合)|label=三者対話|en|Formal trilogue meeting}} ({{Lang-en-short|trilogue}}、トリローグ) で加筆修正が多数加えられている{{R|TriloguePR2023|TrilogueText2024}}{{Efn2|name=TrilogueRev}}。 |
|||
==== (3) 限定的なリスク ==== |
|||
限定的なリスク ({{Lang-en-short|Limited risk}}) のAIシステムの例として[[生成AI]] ([[ディープフェイク]]含む{{Sfn|EU日本政府代表部|2024|p=27}})、対話型AI ([[チャットボット]])、感情認識システムなどが挙げられる{{Sfn|EU日本政府代表部|2024|p=6}}。上述の (2) 高リスクではさまざまな義務が課されている一方、(3) 限定的なリスクでは利用者への透明化義務が課されているのみである{{Sfn|EU日本政府代表部|2024|p=6}}。ここでの「透明化義務」は第50条にて規定されており、チャットボットであればユーザーがAIとやりとりしていることが分かるようにする{{Sfn|IISE|2024|p=29}}{{Sfn|EU日本政府代表部|2024|p=26}}。コンテンツ生成型のAIであれば、生成された画像や動画に電子透かしを入れる、ニュース記事内で明記するなどの方法で、AIの使用有無がコンテンツ閲覧者に判別がつくようにする{{Sfn|IISE|2024|p=29}}{{Sfn|EU日本政府代表部|2024|pp=26–27}}。 |
|||
第50条の透明化義務以外では、第95条で自主的な「行動規範」({{En|Code of Conduct}}) に基づく開発・運用を求めている{{Sfn|EU日本政府代表部|2024|p=41}}{{Sfn|IISE|2024|p=39}}([[#行動規範]]で詳述)。 |
|||
==== (4) 最小限のリスク ==== |
|||
最小限のリスク ({{Lang-en-short|Minimal risk}}) しかないAIは、具体例として[[スパムフィルタ]]が挙げられる{{Sfn|IISE|2024|p=3}}。EUの行政機関である[[欧州委員会]]によると、大半のAIは (4) 最小限リスクに分類される{{Sfn|IISE|2024|p=3}}。このリスクレベルに該当するAIシステムは、原則として自由に利用が可能である。しかし (3) 限定的なリスクと同様、第95条の「行動規範」に基づく自主性が推奨されている{{Sfn|EU日本政府代表部|2024|p=6}}([[#行動規範]]で詳述)。<!-- いったんコメントアウト処理。英語版からの翻訳初版では「加盟国は{{仮リンク|最大調和規定|en|Maximum harmonisation}}により、追加の規制は禁止される。このようなシステムの設計または利用に関連する既存の国内法は適用の対象にならない。ただし、自主規制が提案されている{{R|Veale 20212}}。」とあるが、2021年の論文であり Maximum harmonisation でネット検索しても現行法でこの規定を含んでいるとの文献はヒットせず。立法過程で修正されて削除されたかも? --> |
|||
==== 汎用AIモデル ==== |
|||
AI法の草案作成当初は「汎用AIモデル」({{En|general-purpose AI models}}、略称: GPAI) のリスクが十分に認識されていなかったことから、特別規定は盛り込まれていなかったが{{Sfn|欧州議会 GPAI|2023|p=2}}、法案提出から1年あまりが経過した後に欧州連合理事会が追加修正案を提出し{{R|Timeline-FLI}}、その後も修正を重ねて{{R|Timeline-FLI}}特別規定を設けることとなった{{Sfn|EU日本政府代表部|2024|p=4}}{{Sfn|IISE|2024|p=3}}。さらに汎用AIモデルのなかでも、「システミックリスク」({{En|Systemic risk}}) を有するものについては追加の特別規定がある{{Sfn|EU日本政府代表部|2024|p=29}}{{Sfn|IISE|2024|p=31}}。汎用AI「モデル」はAI「システム」とは異なるため、上述の4つのリスクレベルで分類されない。ただし汎用AI「モデル」が他のAI「システム」に組み込まれ、(2) 高リスクと判定された場合は、上述のリスクレベル別の義務も併せて負うことになる{{Sfn|EUJC|2024|p=6}}。 |
|||
:; 汎用AIモデル全般 |
|||
: 汎用AIモデル全般に課される義務は第53条・第54条で規定されており、以下のとおりである{{Sfn|EU日本政府代表部|2024|p=28}}{{Sfn|IISE|2024|p=30}}{{Sfn|EUJC|2024|p=6}}。 |
|||
:* 技術文書を作成し、最新の状態に更新 (文書に折り込むべき情報項目は附則11参照) |
|||
:* 汎用AIモデルを組み込むAIシステムの提供者に対し、当該汎用AIモデルの能力と限界を周知する文書を提供 (文書に折り込むべき情報項目は附則12参照) |
|||
:* [[著作権法 (欧州連合)|EU著作権法]]、特に[[DSM著作権指令]]で定められたテキストおよびデータマイニング (略称: TDM) の適法要件を遵守 |
|||
:* 汎用AIモデルが学習に使用したデータについて、包括的な概要を文書化・公開 (AIオフィスが提供する記入テンプレートを用いる) |
|||
:* EU域外が汎用AIモデルを提供する場合、域内代理人を指定 |
|||
:; システミックリスク |
|||
: システミックリスクを有する汎用AIモデルとは、学習に使用される計算能力が相当に高いことから{{Sfn|EUJC|2024|p=6}}、公衆衛生・安全・治安・基本的人権といった重要な領域に対してEU広域に影響をおよぼしうるもの ({{En|high-impact capabilities}}) を指す{{Sfn|IISE|2024|p=31}}。第53条第1項に基づき、以下の措置を「追加」で講じる義務を負う{{Sfn|EU日本政府代表部|2024|p=30}}。 |
|||
:* モデル評価の実施 |
|||
:* リスク評価と軽減対策 |
|||
:* 重大インシデント発生時の当局報告と是正対応 |
|||
:* サイバーセキュリティ対策 |
|||
: 何をシステミックリスクを有する汎用AIモデルに指定すべきかについては、第51条で「高い影響力」の基準が示されている{{Sfn|IISE|2024|p=31}}{{Sfn|EU日本政府代表部|2024|p=29}}。 |
|||
:* 第51条第1項の基準: 指標やベンチマークといった適切な技術ツール・方法論で評価 |
|||
:* 第51条第2項の基準: 学習に使用された累積計算量が浮動小数点演算 ([[FLOPS]]) で計測して<math>10^{25}</math> (10の25乗) を超える場合 |
|||
: 第1項については、EUの行政機関である欧州委員会が有識者などからの助言を受け、かつAI法の附則13 (Annex XIII) で定められた基準に基づいて、対象となる汎用AIモデルを指定できる{{Sfn|IISE|2024|p=31}}{{Sfn|EU日本政府代表部|2024|p=29}}。附則13にはモデルのパラメータ数、学習コストや学習時間の推定値といった技術的な定量指標のほか、登録ユーザー数といった社会的な影響度を測る指標などが挙げられている{{Sfn|IISE|2024|p=32}}。また、AI提供者側 (事業者側) が上述の基準に該当すると自己認識した際には、2週間以内に欧州委員会に通知する義務を負う{{Sfn|IISE|2024|p=32}}。 |
|||
==== 適用対象外のAIシステム ==== |
|||
第2条ではAI法の適用対象から除外される要件を定めているが、そのうちAI法全般の義務・規制から除外されるものは以下のとおりである。 |
|||
* 軍事、防衛または国家安全保障目的に特化したAI (これ以外の目的も兼ねるAIは含まない){{Sfn|EU日本政府代表部|2024|p=4}}{{Sfn|IISE|2024|p=8}} |
|||
* 科学研究開発目的に特化したAI{{Sfn|EU日本政府代表部|2024|p=4}}{{Sfn|IISE|2024|p=8}} |
|||
* 研究・開発段階にあって、市場未投入・未稼働の状態にあるAIシステムまたはAIモデル{{Sfn|EU日本政府代表部|2024|p=4}}{{Sfn|IISE|2024|p=8}} |
|||
* フリー・オープンソース・ライセンスでリリースされているAIシステムのうち、リスクレベルが (3) 限定的ないし (4) 最小限に分類されるもの{{Sfn|EU日本政府代表部|2024|p=4}}。 |
|||
=== 規制適用者の分類 === |
|||
つづいてAIシステムやAIモデルに従事する者のうち、「誰」がAI法の規制を受けるのかを述べる。第2条で対象者が列記され{{Sfn|IISE|2024|p=9}}、各用語は第3条で定義されている{{Sfn|EU日本政府代表部|2024|p=5}}{{Sfn|IISE|2024|p=10}}。 |
|||
{{Tree list}} |
|||
* AI従事者全般 ({{En|Operator}}、オペレーター){{Sfn|IISE|2024|p=10}} |
|||
** AI提供者 ({{En|Provider}}、プロバイダー) - 法人・個人を問わずAIシステムやAIモデルの「開発」者。あるいは自らの名前・商標で市場に「投入」する、あるいは「稼働」させる者。有償・無償も不問{{Sfn|EU日本政府代表部|2024|p=5}}{{Sfn|IISE|2024|p=10}}。 |
|||
*** AI提供者の代理人 ({{En|Authorised Representative}}) - AI提供者から書面で委任を受け、義務を代行する者{{Sfn|IISE|2024|p=10}}。EU域外の者が高いリスクAIシステムないし汎用AIモデルを提供する場合、EU域内代理人の指定が必須{{Sfn|EU日本政府代表部|2024|pp=14, 28}}。 |
|||
** AI導入者 ({{En|Deployer}}、ディプロイヤー) - 自らの権限の下でのAIシステムの「利用」者。法人・個人は問わないが、あくまで個人的な目的であり職務以外の目的で利用する者は除く{{Sfn|EU日本政府代表部|2024|p=5}}{{Sfn|IISE|2024|p=10}}。 |
|||
** AI輸入者 ({{En|Importer}}) - EU域外のAIシステムをEU域内の市場に投入・提供する者で、EU域内に拠点を置く法人・個人{{Sfn|IISE|2024|p=10}}。 |
|||
** AI販売者 ({{En|Distributor}}、頒布者、ディストリビューター) - AIシステムの特性に影響を与えず、EU域内利用を可能にする者のうち、上述の提供者や輸入者以外の法人・個人{{Sfn|IISE|2024|p=10}}。 |
|||
** AIシステムを組み込んだ製品製造者 ({{En|Product manufacturers}}) - その製品が製造者の名前・商標で上市しており、その製品の中にAIシステムが組み込まれている場合{{Sfn|IISE|2024|p=9}}。 |
|||
{{Tree list/end}} |
|||
「提供者」と「導入者」には十分な「AIリテラシー」が求められる (第4条)。ここでのAIリテラシーとは技術的知識や経験を有しており、適切な教育・訓練を受けており、AIシステムが使用される文脈に即した操作や使用ができる能力を指す。提供者や導入者はAIリテラシーを有する人員を確保しなければならない{{Sfn|EU日本政府代表部|2024|p=7}}{{Sfn|IISE|2024|p=11}}。ただし違反時の制裁金などは定められていない{{Sfn|IISE|2024|p=11}}。 |
|||
(3) 高リスクAIシステムを取り扱う場合、「提供者」は第16条から第25条などで{{Sfn|EU日本政府代表部|2024|pp=13–14}}{{Sfn|IISE|2024|p=21}}、「導入者」は第26条・第27条で{{Sfn|EU日本政府代表部|2024|pp=23–24}}{{Sfn|IISE|2024|pp=24–25}}それぞれ異なる義務が個別詳細に規定されている。高リスクAIシステムの提供者はたとえば、技術文書の作成やデータ管理の手順整備、ログの記録と重大インシデント発生時の報告体制の整備といった義務が課される{{Sfn|EU日本政府代表部|2024|p=13}}。上市前にはEU適合性評価手続を受け、CEマークを取得する必要がある{{Sfn|EU日本政府代表部|2024|p=13}}([[#適合性評価]]で詳細後述)。(3) 高リスクAIシステムの「提供者」に課される義務のうち、第23条と第24条は「輸入者」と「販売者」にも関係する。CEマーク、EU適合性宣言および使用説明書関連が第23条と第24条である{{Sfn|EU日本政府代表部|2024|p=22}}。一方、高リスクAIシステムの導入者は、たとえば自動まかせにしない人的監視体制の構築や、使用説明書に沿った利用などが義務として規定されている{{Sfn|EU日本政府代表部|2024|p=23}}。 |
|||
汎用AI「モデル」については、AI「システム」ではないことから、主に提供者の義務が定められている{{Sfn|IISE|2024|p=9}}。 |
|||
==== 適用対象外の者 ==== |
|||
以下の者がAIシステムを利用する場合は、AI法で定められた規制や義務が適用されない。 |
|||
* EU域外の公的機関や国際機関が、EUないしEU加盟国に対して法執行や司法の国際協力の目的で利用する場合{{Sfn|EU日本政府代表部|2024|p=4}} |
|||
* 職務に関連しない、ごく個人的な目的でAIシステムを個人{{Sfn|EU日本政府代表部|2024|p=4}}{{Sfn|IISE|2024|p=8}} |
|||
== 適合性評価 == |
|||
[[File:Conformité Européenne (logo).svg|thumb|欧州基準に適合していることを示す[[CEマーク]]]] |
|||
(2) 高リスクAIシステムおよび汎用目的AIモデルの一部は、AI法が定める「適合性評価手続」({{En|Conformity assessment procedure}}) を踏まなければならない{{Sfn|EU日本政府代表部|2024|p=19}}{{Sfn|IISE|2024|p=28}}。ここでの「適合性」とは欧州基準のサイバーセキュリティ対策などが適切にとられていることを表す (AI法前文 (78) 参照)。 |
|||
EUの行政機関である欧州委員会は、[[欧州標準化委員会]] (略称: CEN) や[[欧州電気標準化委員会]] (略称: CENELEC) といった非営利の欧州標準化団体に適合性の基準 (つまりAI業界規格) を定めるよう要請する権限を有する{{Sfn|EU日本政府代表部|2024|p=19}}{{Sfn|IISE|2024|p=26}}。CENやCENELECが定めた規格に適合した場合、[[CEマーク]] (CE適合性マーク) がAIシステムに付与される{{Sfn|IISE|2024|p=27}}。CEマークはAI以外にも幅広く用いられている認証マークの仕組みであり、玩具や医療機器の安全性担保やエコデザインなどの環境負荷軽減対策など、さまざまなEUの法令に対応している{{R|CEMark-JETRO}}。AIシステムの特性に応じ、自己評価で適合性評価を行ってもよいケースと、適合性評価機関による第三者認証を求めるケースがある{{Sfn|EU日本政府代表部|2024|p=19}}{{Sfn|IISE|2024|p=28}}。 |
|||
== {{Visible anchor|実践規範と行動規範|実践規範|行動規範}}<!--この節が育ったらVisible anchorを外して小見出しに切り替えてください--> == |
|||
AI法では2つの「規範」が規定されている。 |
|||
1つ目が汎用AIモデルを対象とした実践規範 ({{En|Code of Practice}}) である (第56条){{Sfn|EU日本政府代表部|2024|p=31}}{{Sfn|IISE|2024|p=34}}。AI法では実践規範の内容は規定されておらず、欧州委員会内に設置された[[AIオフィス]]<!-- 英語版に記事なし。仮リンク挿入できず -->の指揮の下、汎用AIモデルの提供者とEU加盟各国の所轄機関を招待して実践規範を策定することが奨励されているのみである{{Sfn|EU日本政府代表部|2024|p=31}}{{Sfn|IISE|2024|p=34}}。また市民社会組織、産業界、学界並びに川下提供者や独立専門家などから実践規範策定の支援を仰ぐことができる{{Sfn|EU日本政府代表部|2024|p=31}}{{Sfn|IISE|2024|p=34}}。欧州委員会はAI法の発効から3か月後の2024年11月、30ページ以上にわたる実践規範の草案初版を公開した{{R|CoP1st-ECPR|CoP1st-Text}}。 |
|||
2つ目は限定的リスクおよび最小限リスクのAIシステムを対象とした行動規範 ({{En|Code of Conduct}}) である (第95条){{Sfn|EU日本政府代表部|2024|p=41}}{{Sfn|IISE|2024|p=39}}。これはAI法 第3章第2節 (第8条から第15条) で具体的に定められた高リスクAIシステムに求められる義務を、それ未満のリスクシステムにも事業者が自主的に守るよう促す目的で策定されるものである{{Sfn|EU日本政府代表部|2024|p=41}}{{Sfn|IISE|2024|p=39}}。AIオフィスと[[欧州AI委員会]]<!-- 英語版に記事なし。仮リンク挿入できず --> ({{En|European Artificial Intelligence Board}}、略称: EAIB) の指揮の下、行動規範の策定参加者は提供者だけでなく導入者も加わり、外部専門家や利害関係者からも助言支援を仰ぐことができる{{Sfn|EU日本政府代表部|2024|p=41}}{{Sfn|IISE|2024|p=39}}。欧州AI委員会はEU加盟各国から1名代表を出して構成される会議体であり、{{仮リンク|欧州データ保護監察官|en|European Data Protection Supervisor}} ({{En|European Data Protection Supervisor}}、略称: EDPS) もオブザーバー参加する{{Sfn|EU日本政府代表部|2024|p=36}}{{Sfn|IISE|2024|p=35}}。<!-- 2024年11月時点、実践規範は草案が作成されているが行動規範の方はネット検索しても具体的な動きなし --> |
|||
AIを積極活用する[[デジタル・プラットフォーム]]は複数のプレイヤーが複雑に連携しあって構築・運営されていることから、政府がルールを設定し、事業者がそれを遵守し、ユーザー個人はその恩恵を受け身の姿勢で待つという従来型のトップダウン的なガバナンス構造では、対応スピード面で限界に達しているとの識者見解もある{{R|Shishido2024|page1=3–4}}。AI法の実践規範や行動規範のように事業者が自主的に策定に関与して、安全なAIの普及をボトムアップ的に促進するアプローチの必要性は、[[先進7か国首脳会議]] (G7) でも2023年の[[第49回先進国首脳会議|広島サミット]]で議論されており{{R|AIGuideE-METI}}、後に具体化されて「[[広島AIプロセス]]国際行動規範」の名称で文書化がなされている{{R|HiroshimaP-Doc|HiroshimaCoC-Trans}}。 |
|||
== 罰則 == |
|||
AI法の第12章 (第99条から第101条) が罰則規定になっている。違反の場合はレベルごとに異なる罰則を設けており、最大で3,500万[[ユーロ]] (2024年時点で約56億円相当{{Sfn|情報通信白書|2024|p=59}})、あるいは年間世界売上高の7%相当のいずれか高い方の金額が制裁金として科される (大企業の場合){{Sfn|EU日本政府代表部|2024|pp=1, 40}}{{Sfn|IISE|2024|p=41}}。ただしAI法が定めるのは制裁金の上限であり、実際の金額はEU加盟各国が決定する{{Sfn|EU日本政府代表部|2024|p=40}}。 |
|||
[[#段階適用]]で後述のとおり、AI法は条文ごとに段階的に適用開始となる。汎用AIモデルに関しては、義務の適用が開始されてもしばらくは罰則規定が未適用となる。 |
|||
== 条文の全体構成 == |
|||
[[EU官報]]の原文に基づき{{R|LEX-DocInfo}}、日本語の仮訳と英語の条名を以下に併記する。 |
|||
* 前文 (Recital) - (1) から (180) まで。立法の目的や、各条文で用いられる用語の定義などを含む。 |
|||
* 第1章 (Chapter 1): 一般規定 (General Provisions) - 第1条から第4条まで。第1条が規制の対象となるAI (Subject matter)、第2条が規制の対象者 (Scope)、第3条が用語の定義 (Definitions)、第4条がAIリテラシー (AI literacy)。 |
|||
* 第2章 (Chapter 2): 禁止されるAIの利用・運用方法 (Prohibited AI Practices) - 第5条のみ。第5条には (a) から (h) まで8項があり、欺瞞的なデザインや差別的なコンテンツの生成など、具体的な禁止事項が列記されている。 |
|||
* 第3章 (Chapter 3): 高リスクAIシステム (High-risk AI Systems) - 第6条から第49条まで。第9条でリスク管理体制の整備を、第10条でデータ・ガバナンス方針を、第11条で技術設計などの文書化を、第12条でログの記録義務をそれぞれ定めている。 |
|||
* 第4章 (Chapter 4): 特定のAIシステムの提供者および導入者に対する透明性の義務 (Transparency Obligations for Provider and Deployers of Certain AI Systems) - 第50条のみ。 |
|||
* 第5章 (Chapter 5): 汎用AIモデル (General-purpose AI Models) - 第51条から第56条まで。第51条がGPAIの定義、第53条から第55条がGPAIに課される義務、第56条がGPAIの実践規範 (Codes of Practice)。 |
|||
* 第6章 (Chapter 6): イノベーション支援措置 (Measures in Support of Innovation) - 第57条から第63条まで。第57条から第61条までがAI規則サンドボックス (AI regulatory sandboxes) に関する規定。第62条が中小企業・スタートアップ支援措置。 |
|||
* 第7章 (Chapter 7): ガバナンス (Governance) - 第64条から第70条。EU全体レベルおよびEU加盟国レベルのガバナンス。 |
|||
* 第8章 (Chapter 8): 高リスクAIシステムのEUデータベース (EU database for high-risk AI systems) - 第71条のみ。附則 3 (Annex III) で列記される高リスクAIシステムを一覧公表。 |
|||
* 第9章 (Chapter 9): 市場導入後の動向観察、情報共有と市場調査 (Post-market Monitoring, Information Sharing and Market Surveillance) - 第72条から第94条。{{仮リンク|市場監視規則|en|Regulation (EU) 2019/1020}} (Regulation (EU) 2019/1020) をAI法にも適用。 |
|||
* 第10章 (Chapter 10): 行動規範とガイドライン (Codes of Conduct and Guidelines) - 第95条・第96条。 |
|||
* 第11章 (Chapter 11): 権限の委任および委員会の手続 (Delegation of Power and Committee Procedure) - 第97条・第98条。Regulation (EU) No 182/2011 (欧州委員会の実施権限行使に関する規則) に基づく{{Efn2|Regulation (EU) No 182/2011は明治大学法学部 夏井高人教授の[http://cyberlaw.la.coocan.jp/Documents/EU_Regulation_182_2011.pdf 日本語参考訳]も参照のこと。}}。 |
|||
* 第12章 (Chapter 12): 罰則 (Penalties) - 第99条から第101条。 |
|||
* 第13章 (Chapter 13): 最終規定 (Final Provisions) - 第102条から第113条。第102条から第110条は、他のEU規則やEU指令の改正情報{{Efn2|第102条から第110条に列記されているのは順に、[[空港警備|空港や航空機の警備]]に関する規則 Regulation (EC) No [https://eur-lex.europa.eu/eli/reg/2008/300/oj 300/2008]、農林業用車両に関する規則 Regulation (EU) No [https://eur-lex.europa.eu/eli/reg/2013/167/oj 167/2013]、二輪車・三輪車・人力の[[四輪自転車]]に関する規則 Regulation (EU) No [http://data.europa.eu/eli/reg/2013/168/oj 168/2013]、船用機器指令 Directive [http://data.europa.eu/eli/dir/2014/90/oj 2014/90/EU]、鉄道システムのEU域内互換性に関する指令 Directive (EU) [http://data.europa.eu/eli/dir/2016/797/oj 2016/797]、自動車などの型式認証に関する規則 Regulation (EU) [http://data.europa.eu/eli/reg/2018/858/oj 2018/858]、[[欧州航空安全機関]]の設立などを定めた規則 Regulation (EU) [https://eur-lex.europa.eu/eli/reg/2018/1139/oj 2018/1139]、自動車などの型式認証に関する部分改正規則 Regulation (EU) [https://eur-lex.europa.eu/eli/reg/2019/2144/oj 2019/2144]、消費者団体訴訟指令 Directive (EU) [https://eur-lex.europa.eu/eli/dir/2020/1828/oj 2020/1828]である。これらの規則・指令がAI法により部分改正された。}}。第111条・第113条にて、段階的な適用日を設定。 |
|||
* 附則 (Annex) - 附則1 (Annex I) から 附則13 (Annex XIII) まで。禁止されるAIのうち、リアルタイム・リモート生体識別の例外を附則2で規定。高リスクAIシステムに対し、AI法以外で多重に規制をかけるEU諸法令を附則1にて、AI法で新たに規制がかかる8領域を附則3にてそれぞれ列記。AI提供者の技術文書化義務関連が附則4。適合性評価関連が附則5から附則7。透明化義務関連が附則11・附則12。汎用AIモデルのシステミックリスクに関して附則13で基準列記。 |
|||
== 立法の沿革 == |
|||
AI法の立法は、欧州委員会委員長の[[ジャン=クロード・ユンケル]]主導の下、2015年に提唱された[[デジタル単一市場#デジタル単一市場戦略に基づく法令|デジタル単一市場戦略]] (DSM戦略) の一環である{{R|DSM-EP}}。時に強固な「フェデラリスト」(欧州中央集権派) と批判的に評されたユンケルは{{R|Junker-BBC2014}}、その任期中 (-2019年) にDSM関連法案を28本成立させ、AI法を含む2法案はユンケルから委員長職を受け継いだ[[ウルズラ・フォン・デア・ライエン]]体制下で実現している{{R|DSM-JETRO}}。DSM戦略とは、デジタル・プラットフォーム全般に消費者や事業者が安全、公正かつ効率的にアクセスできるよう、EU各国の法制度や技術規格が統一化されたデジタル経済圏を指すデジタル政策である{{R|EUMag-Summary|page1=1}}。 |
|||
[[File:European Union legislative triangle.svg|thumb|EUにおける立法プロセスの3者構造]] |
|||
AI法の審議過程は、[[欧州連合の立法手続#通常立法手続|欧州連合の通常立法手続]]を踏んでいる{{R|LEX-Procedure}}。すなわち、行政機関の欧州委員会 (Commission) が法案を提出し、立法機関の欧州議会 (Parliament) と欧州連合理事会 (Council) がそれぞれで共同採択されて初めて成立する{{Sfn|EU日本政府代表部|2024|p=2}}。以下のとおり審議中に複数回、原案への修正意見が提出されているため{{R|Timeline-FLI}}、メディア報道や学術文献によっては執筆当時の古い条文を基に論評・解説している可能性があり、注意が必要である。 |
|||
* 2021年4月22日 - EUの行政機関である欧州委員会が法案を提出{{R|LEX-Procedure}}{{Sfn|EU日本政府代表部|2024|p=2}} |
|||
** 2021年11月29日 - ソーシャルスコアリング、生体認証、および高リスクAI全般に関する大幅修正案を[[欧州連合理事会]]が提出{{R|Timeline-FLI}} |
|||
** 2022年2月3日 - 高リスクAIシステムに対する義務、および透明性の義務に関する修正{{R|Timeline-FLI}} |
|||
** 2022年3月2日 - [[欧州議会]]の{{仮リンク|法務委員会 (欧州議会)|label=法務委員会|en|European Parliament Committee on Legal Affairs}} (JURI) による149頁にわたる[https://www.europarl.europa.eu/doceo/document/JURI-PA-719827_EN.pdf 修正意見書]の提出{{R|Timeline-FLI}} |
|||
** 2022年3月3日 - 欧州議会の{{仮リンク|産業・研究・エネルギー委員会 (欧州議会)|label=産業・研究・エネルギー委員会|en|European Parliament Committee on Industry, Research and Energy}} (ITRE) による67頁にわたる[https://www.europarl.europa.eu/doceo/document/ITRE-PA-719801_EN.pdf 修正意見書]の提出{{R|Timeline-FLI}} |
|||
** 2022年4月20日 - 欧州議会の{{仮リンク|域内市場・消費者保護委員会 (欧州議会)|label=域内市場・消費者保護委員会|en|European Parliament Committee on the Internal Market and Consumer Protection}} (IMCO) と{{仮リンク|市民の自由・司法・内務委員会|en|European Parliament Committee on Civil Liberties, Justice and Home Affairs}} (LIBE) による161頁にわたる共同[https://www.europarl.europa.eu/doceo/document/CJ40-PR-731563_EN.pdf 修正意見書]提出{{R|Timeline-FLI}} |
|||
** 2022年5月13日 - 汎用AIモデル (GPAI) に関する[https://artificialintelligenceact.eu/wp-content/uploads/2022/05/AIA-FRA-Art-34-13-May.pdf 追加規定案]を[[欧州連合理事会]]が提出{{R|Timeline-FLI}} |
|||
** 2022年6月1日 - 欧州議会の各委員会などが数千箇所におよぶ修正案を提出{{R|Timeline-FLI}} |
|||
** 2022年6月15日 - 欧州連合理事会が136頁にわたる[https://artificialintelligenceact.eu/wp-content/uploads/2022/06/AIA-FRA-Consolidated-Version-15-June.pdf 最終修正案]を提出{{R|Timeline-FLI}} |
|||
* 2022年12月6日 - 欧州連合理事会が修正案を採択し{{Sfn|EU日本政府代表部|2024|p=2}}{{efn2|name=Council-Majority|欧州連合理事会の法案可決には特定多数が必要である。欧州連合理事会には、加盟国からそれぞれ代表を送る仕組みとなっており、加盟国数の55%以上かつ加盟国全人口の65%以上からの支持を特定多数と呼ぶ。このように単純国数だけでなく、人口比率も加味した方式を「二重多数決制」と呼ぶ{{Sfn|庄司|2015|pp=260–261}}。}}、欧州議会との交渉合意決議 ({{Lang-en-short|position}}{{Efn2|name=Position|欧州連合におけるpositionの可決は「立場」と訳されることもある{{Sfn|庄司|2015|pp=274–278}}。}}) を可決{{R|Timeline-FLI}} |
|||
* 2023年6月14日 - 欧州議会が賛成499票、反対28票、棄権93票で修正案を採択し{{R|LEX-Procedure}}{{R|Timeline-FLI}}{{Sfn|EU日本政府代表部|2024|p=2}}{{Efn2|欧州議会の法案可決には単純過半数が必要である。欧州議会は加盟国の人口に比例して国別の議席数が割り振られ、EU市民の直接選挙によって議員が選出されている。多くの議員は国を超えた特定の政党に所属している{{Sfn|庄司|2015|pp=261–264}}。}}、欧州連合理事会との交渉合意決議を可決{{R|Timeline-FLI}} |
|||
* 2023年12月9日 - 両立法府による共同採択の迅速化を目的とする「{{仮リンク|三者対話 (欧州連合)|label=三者対話|en|Formal trilogue meeting}}」({{Lang-en-short|trilogue}}、トリローグ) の場が設けられて、欧州委員会、欧州議会、欧州連合理事会のそれぞれから成る代表者によって交渉が行われ{{Sfn|庄司|2015|pp=274–278}}、修正案が合意{{Sfn|EU日本政府代表部|2024|p=2}}{{R|Timeline-FLI}}{{Efn2|name=TrilogueRev|2023年12月9日の三者対話の合意ののち部分修正が加えられ、2024年2月2日に三者対話の最終修正案が公表されている{{R|TriloguePR2023|TrilogueText2024}}。}} |
|||
* 2024年3月13日 - 欧州議会で三者対話の修正案が審議され、賛成523票、反対46票、棄権49票で可決{{R|LEX-Procedure|Adopt-EP-PR}} |
|||
* 2024年5月21日 - 欧州連合理事会で三者対話の修正案が審議され、賛成27票の満場一致で可決{{R|LEX-Procedure|CouncilVote|page2=2}} |
|||
* 2024年6月13日 - 欧州議会議長および欧州連合理事会議長が署名し、AI法が成立{{R|LEX-Procedure}}{{Sfn|EU日本政府代表部|2024|p=2}}。 |
|||
* 2024年7月12日 - [[EU官報]]上で公布 (EU官報番号: [http://data.europa.eu/eli/reg/2024/1689/oj L, 2024/1689]){{R|LEX-Procedure|LEX-DocInfo}}。 |
|||
=== 段階適用 === |
|||
第113条の規定に基づき、AI法は以下のとおり段階的に適用が開始されるが{{Sfn|EU日本政府代表部|2024|p=42}}{{R|LEX-DocInfo}}、発効から2年後の2026年8月2日が「本格適用」と位置づけられている{{Sfn|EU日本政府代表部|2024|p=1}}。 |
|||
* 2024年8月1日 - AI法が[[施行|発効]]{{R|LEX-DocInfo}}{{Sfn|EU日本政府代表部|2024|p=2}} |
|||
* 2025年2月2日 - 第1章および第2章 (第1条から第5条) が適用開始し、(1) 許容されないリスクのあるAIが全面禁止{{R|LEX-DocInfo}}{{Sfn|EU日本政府代表部|2024|p=42}} |
|||
* 2025年8月2日 - 第3章のセクション4 (第28条から第39条; 適合性評価機関)、第5章すべて (第51条から第56条; 汎用AIモデル)、第7章すべて (第64条から第70条; ガバナンス)、第9章の第78条のみ (規制当局の守秘義務)、第12章 (第99条から第100条; 罰則のうち汎用AIモデルを対象とした第101条のみ除外){{R|LEX-DocInfo}}{{Sfn|EU日本政府代表部|2024|p=42}} |
|||
* 2026年8月2日 - 第6条第1項を除く全条項が適用開始{{R|LEX-DocInfo}}{{Sfn|EU日本政府代表部|2024|p=42}} |
|||
* 2027年8月2日 - 第6条第1項 (高リスクAIシステムのうち、他EU法令と多重規制となるものに対する規制) が適用開始{{R|LEX-DocInfo}}{{Sfn|EU日本政府代表部|2024|p=42}} |
|||
== 評価・分析 == |
|||
{{For2|各国のAI規制状況|:en:Regulation of artificial intelligence}} |
|||
上述のとおり、仮に日本や米国などのEU域外で設立された団体や他国民であっても、EU域内にAIを導入したり、AIを稼働・提供したりする場合はAI法の規制対象となる (いわゆるEU域外適用){{Sfn|EU日本政府代表部|2024|p=3}}。特に生成AI (つまり汎用AIモデル) にとってはAI法が厳しすぎるとの声も挙がっている{{R|NRI2024|page1=11}}。 |
|||
AI法発効以前でも既に、個人データ保護を規定する[[EU一般データ保護規則]] (GDPR) などが求める保護水準を遵守するのが困難との理由から、一部AIがEU市場へのサービス提供を断念する、あるいは機能を制限する対応をとっている{{R|NRI2024|page1=11}}。たとえば米国Meta社 (旧Facebook社) は開発中の{{仮リンク|マルチモーダル|label=マルチモーダルAI|en|Multimodal learning}} ({{En|Multimodal AI}}) をEU市場向けに提供しない方針を2024年7月 (AI法の発効前月) に明かしている{{R|ASCII2024|AXIOS2024}}。マルチモーダル ({{En|Modal}}は様式・手法の意) とはテキスト、音声、画像、動画といったデータの種類を複数統合して処理するため、単一モーダルと比較してより複雑な処理が可能とされる{{{R|Mutimodal-SB}}。Meta社には既に単一モーダルAIの「[[LLaMA|Llama]] 3」があるが、マルチモーダルAIにはより多くの学習データ収集が必要とされるため、GDPRなどの規制下では十分なデータ取得が困難と判断したためである{{R|ASCII2024}}。Appleも同様に、プライバシー保護やデータセキュリティ上の懸念から、同社AIの一部機能をEU市場向けに提供しない旨がAI法発効2か月前に発表されている{{R|ASCII2024}}。 |
|||
AI法はGDPRなどの既存法の遵守も同時に求めていることから{{R|NRI2024|page1=10}}、EU域外の事業者にとってはEUへの展開の障壁となりうるとの指摘もある{{R|NRI2024|page1=11}}。 |
|||
== 違反・訴訟事例 == |
|||
日本語ではAI「法」と呼称されることも多いが{{Sfn|情報通信白書|2024|pp=52, 59}}{{R|DeloitteJP2024}}、[[EU法]]における法体系上は「[[規則 (EU)|規則]]」({{Lang-en-short|Regulation}}) に分類される{{R|LEX-DocInfo}}。(AI法に限らず)「EU規則」はEU加盟国の個人や企業・団体などを直接拘束するほか{{Sfn|庄司|2015|pp=4–6}}、違反時には[[欧州司法裁判所]] (CJEU) などのEU各裁判所への提訴対象となる{{R|EULaw-Sato|page1=190–191}}。 |
|||
:; クネシュケ対LAION事件 |
|||
{{Main|クネシュケ対LAION事件}} |
|||
: 当事件は世界初の本格的なAI訴訟判決と言われ、欧州だけでなく世界的にも注目されている{{R|OLC2024|MF2024|TLM2024}}。写真画像が無断でAI学習データとして収集 ([[スクレイピング]]) されたことから、[[著作権侵害]]が問われた事件である{{R|OLC2024|MF2024|WIPOSum}}。汎用AIモデルは[[DSM著作権指令]]で定められた[[オプトアウト]] (著作物の権利者が無断収集を拒否する権利) の尊重が求められ、その遵守にあたってはAI法 第53条第1項(c)号で「最先端の技術を用いるなどの手段」を用いると規定されている{{R|MF2024}}。写真掲載サイトの一般的な利用規約で表示されているオプトアウトの意思表明は、AIが「最先端の技術」をもって読み取り、収集対象から除外すべきものだったのか、その文言解釈も問われることとなった{{R|OLC2024|MF2024|WIPOSum}}。2024年9月に原告敗訴の判決が一審のドイツ・{{仮リンク|ハンブルク地方裁判所|de|Landgericht Hamburg|en|Regional Court of Hamburg}}で下されているが{{R|OLC2024|MF2024|WIPOSum}}、2024年11月時点で控訴中であり{{R|KneschkeOfficial202411}}、欧州司法裁判所への付託の可能性が専門家から言及されている{{R|MF2024}}{{Efn2|name=PrelimRuling|EU加盟国内の裁判所で、EU法令などの解釈や効力について争点となった場合、いったん国内の訴訟は中断して[[欧州司法裁判所]] (CJEU) などのEU裁判所に判断を付託することができる。この手続を「先決裁定」({{Lang-en-short|preliminary ruling procedure}}) と呼ぶ{{R|PrelimRuling-KB|EULaw-Sato|page2=193}}。}}。 |
|||
== 関連項目 == |
== 関連項目 == |
||
* [[人工知能の倫理]] |
* [[人工知能の倫理]] |
||
* {{仮リンク|人工知能の規制|en|Regulation of artificial intelligence}} - EU以外の各国の規制状況も記述 |
|||
* [[人工知能の規制]] |
|||
* [[アルゴリズムバイアス]] |
* [[アルゴリズムバイアス]] |
||
* [[デジタル・プラットフォーマー#法制度]] - AIを含むデジタル・プラットフォームサービスに対する各国の規制状況 |
|||
== 脚注 == |
|||
{{脚注ヘルプ}} |
|||
=== 注釈 === |
|||
{{Notelist2}} |
|||
=== 出典 === |
|||
{{Reflist|2|refs= |
|||
<ref name=LEX-DocInfo>{{Cite web |url=https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX:32024R1689 |title=Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance) |publisher=[[EUR-Lex]] |date=2024-06-13 |author=[[欧州委員会]]および[[欧州連合理事会]] |accessdate=2024-11-11 |language=en}}</ref> |
|||
<ref name=LEX-Procedure>{{Cite web |url=https://eur-lex.europa.eu/legal-content/EN/HIS/?uri=CELEX:32024R1689 |title=Procedure 2021/0106/COD {{!}} COM (2021) 206: Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS |trans-title=AI法の通常立法手続 (審理手続番号: 2021/0106/COD) |publisher=[[EUR-Lex]] |author=[[欧州委員会]]および[[欧州連合理事会]] |accessdate=2024-11-11 |language=en}}</ref> |
|||
<ref name=EULaw-Sato>{{Cite journal |author=佐藤智恵 (明治大学准教授) |title=EU法の一般原則の特徴と意義 |journal=国際法外交雑誌 |publisher=一般財団法人 [[国際法学会]] |volume=16 |issue=2 |year=2017 |pages=189–210 |language=ja |url=https://www.jstage.jst.go.jp/browse/kokusaihogaikozasshi/116/2/_contents/-char/ja |doi=10.60340/kokusaihogaikozasshi.116.2_189}}</ref> |
|||
<ref name=DeloitteJP2024>{{Cite web |url=https://www2.deloitte.com/jp/ja/pages/deloitte-analytics/articles/eu-ai-act.html |title=EU AI Act – EUの包括的AI規制の概説と企業の対応 |publisher=[[デロイト トウシュ トーマツ]] |accessdate=2024-11-11 |language=ja |quote=本記事は2024年4月16日に欧州議会から公開されたAI Actの最新版を踏まえて作成}}</ref> |
|||
<ref name=CRDS2024>{{Cite web |url=https://crds.jst.go.jp/dw/20240828/2024082839273/ |title=欧州人工知能法が発効 |publisher=国立研究開発法人 [[科学技術振興機構]] 研究開発戦略センター (CRDS) |author=研究開発戦略センター デイリーウォッチャー編集局 |date=2024-08-28 |accessdate=2024-11-11 |language=ja}}</ref> |
|||
<ref name=EPNews2024>{{Cite news |title=EU AI Act: first regulation on artificial intelligence |url=https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence |access-date=2024-01-06 |work=European Parliament News |language=en |archive-date=10 January 2024 |archive-url=https://web.archive.org/web/20240110162551/https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence |url-status=live }}</ref> |
|||
<ref name=Timeline-FLI>{{Cite web |url=https://artificialintelligenceact.eu/developments/ |title=Historic Timeline |trans-title=時系列情報 |website=EU Artificial Intelligence Act |publisher=The Future of Life Institute (非営利研究機関) |accessdate=2024-11-11 |language=en}}</ref> |
|||
<ref name=Adopt-EP-PR>{{Cite web |url=https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law |title=Artificial Intelligence Act: MEPs adopt landmark law |trans-title=AI法: 欧州議会で画期的な法律が可決 |publisher=[[欧州議会]] |work=Official Press Release (公式発表) |date=2024-03-13 |accessdate=2024-11-11 |language=en |quote=with 523 votes in favour, 46 against and 49 abstentions (賛成523票、反対46票、棄権49票)}}</ref> |
|||
<ref name=Soumu-AtsumiSakai>{{Cite report |author=三部裕幸 (弁護士) |title=EUのAI規制法案の概要 |publisher=[[総務省]] |series=総務省 AIネットワーク社会推進会議 AIガバナンス検討会「諸外国におけるAI規制の動向に関する調査研究」|year=2022 |url=https://www.soumu.go.jp/main_content/000826707.pdf |format=PDF|language=ja}}</ref> |
|||
<ref name=KPMG2024>{{Cite web |url=https://kpmg.com/jp/ja/home/insights/2024/05/eu-ai-act.html |title=EUのAI規制法~その影響と対策のポイントは |publisher=[[KPMG]] |date=2024-05-27 |accessdate=2024-11-11 |language=en}}</ref> |
|||
<ref name=CouncilVote>{{Cite report |title=Voting result {{!}} REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) |trans-title=AI法の投票結果 |publisher=[[欧州連合理事会]] |date=2024-05-22 |url=https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CONSIL:ST_10199_2024_INIT |format=PDF |language=en}}</ref> |
|||
<ref name=TriloguePR2023>{{Cite web |url=https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/ |title=Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world |trans-title=AI法: 欧州連合理事会と欧州議会が世界初のAI関連法で合意 |publisher=[[欧州連合理事会]] |date=2023-12-09 |accessdate=2024-11-19 |language=en}}</ref> |
|||
<ref name=TrilogueText2024>{{Cite report |author=[[欧州連合理事会]]および[[欧州議会]] |title=Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS |trans-title=AI法案 |publisher=[[欧州連合理事会]] |date=2024-02-02 |url=https://data.consilium.europa.eu/doc/document/ST-5662-2024-INIT/en/pdf |format=PDF |language=en}}</ref> |
|||
<ref name=SocScore-Rec31>{{Cite web |url=https://ai-act-law.eu/recital/31/ |title=Recital 31 AI systems for social scoring |trans-title=前文 31: ソーシャルスコアリングを用いたAIシステム |publisher=Intersoft Consulting |work=AI法前文の項目別抜粋ページ |accessdate=2024-11-19 |language=en}}</ref> |
|||
<ref name=SocScore-Tailor>{{Cite web2 |url=http://tailor.isti.cnr.it/handbookTAI/Societal_and_Environmental_Wellbeing/social_scoring.html |title=AI for social scoring |trans-title=ソーシャルスコアリングを用いるAI |last1=Rossberg |first1=Nicola (School of Computer Science & IT, University College Cork) |last2=Visentin |first2=Andrea (School of Computer Science & IT, University College Cork) |website=The TAILOR Handbook of Trustworthy AI (partially supported by TAILOR, a project funded by EU Horizon 2020 research and innovation programme) |accessdate=2024-11-19 |language=en}}</ref><!-- 執筆者一覧には情報工学などの専門機関に属する研究者名が列記されているので、信頼性は高めの出典。Wayback Machineで保存エラーになるため、魚拓拒否サイトと思われる --> |
|||
<ref name=PFLaw-Nissei>{{Cite web |url=https://www.nli-research.co.jp/report/detail/id=73322?pno=2&site=nli |title=デジタルプラットフォーム透明化法-透明化法はデジタル市場法になりえるのか? |publisher=[[ニッセイ基礎研究所]] |date=2022-12-21 |author=松澤登 (ニッセイ基礎研究所 保険研究部 専務取締役 研究理事 兼 ヘルスケアリサーチセンター長) |page2= |accessdate=2024-11-19 |language=ja |archiveurl=https://web.archive.org/web/20241121062425/https://www.nli-research.co.jp/report/detail/id=73322?pno=2&site=nli |archivedate=2024-11-21 |url-status=live |url-status-date=2024-11-21}}</ref> |
|||
<ref name=NRI2024>{{Cite report |author=柏木亮二 (野村総合研究所 IT事業戦略分析 エキスパート研究員) |title=AIイノベーション 日本型生成AI規制の可能性 |publisher=[[野村総合研究所]] |date=2024-09 |pages=10–11 |url=https://www.nri.com/-/media/Corporate/jp/Files/PDF/knowledge/publication/kinyu_itf/2024/09/itf_202409_05.pdf |format=PDF |language=ja}}</ref> |
|||
<ref name=AXIOS2024>{{Cite web |url=https://www.axios.com/2024/07/17/meta-future-multimodal-ai-models-eu |title=Scoop: Meta won't offer future multimodal AI models in EU |trans-title=スクープ: Meta社はマルチもダルAIモデルをEUに提供しない方針 |publisher=Axios Media |date=2024-07-17 |last=Fried |first=Ina |accessdate=2024-11-19 |archiveurl=https://web.archive.org/web/20241118135350/https://www.axios.com/2024/07/17/meta-future-multimodal-ai-models-eu |archivedate=2024-11-18 |url-status=live |url-status-date=2024-11-19 |language=en}}</ref> |
|||
<ref name=ASCII2024>{{Cite web |url=https://ascii.jp/elem/000/004/210/4210899/ |title=AI大手、規制警戒で“EU離れ” メタもマルチモーダルAI提供見送りへ |work=ASCII x AI |publisher=角川アスキー総合研究所 |date=2024-07-19 |author=田口和裕 |accessdate=2024-11-19 |archiveurl=https://web.archive.org/web/20240926130234/https://ascii.jp/elem/000/004/210/4210899/ |archivedate=2024-09-26 |url-status=live |url-status-date=2024-11-19 |language=ja}}</ref> |
|||
<ref name=Mutimodal-SB>{{Cite web |url=https://www.softbank.jp/biz/solutions/generative-ai/ai-glossary/multimodal-ai/ |title=マルチモーダルAI |work=AI用語解説 |publisher=[[ソフトバンク]] |accessdate=2024-11-19 |archiveurl=https://web.archive.org/web/20241008201118/https://www.softbank.jp/biz/solutions/generative-ai/ai-glossary/multimodal-ai/ |archivedate=2024-10-08 |url-status=live |url-status-date=2024-11-20 |language=ja}}</ref> |
|||
<ref name=CEMark-JETRO>{{Cite web |url=https://www.jetro.go.jp/world/qa/04S-040011.html |title=CEマーキングの概要:EU |publisher=[[JETRO]] |date=2024-09 |accessdate=2024-11-19 |archiveurl=https://web.archive.org/web/20241123082046/https://www.jetro.go.jp/world/qa/04S-040011.html |archivedate=2024-11-23 |url-status=live |url-status-date=2024-11-23 |language=ja}}</ref> |
|||
<ref name=CoP1st-ECPR>{{Cite web |url=https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts |title=First Draft of the General-Purpose AI Code of Practice published, written by independent experts |trans-title=第三者専門家による汎用AIモデル向け実践規範の草案初版が公表 |work=Shaping Europe’s digital future |publisher=[[欧州委員会]] |date=2024-11-14 |accessdate=2024-11-19 |language=en}}</ref> |
|||
<ref name=CoP1st-Text>{{Cite report |title=First Draft General-Purpose AI Code of Practice |trans-title=汎用AIモデル向け実践規範の草案初版 |publisher=[[欧州委員会]] |date=2024-11-14 |url=https://ec.europa.eu/newsroom/dae/redirection/document/109946 |format=PDF |language=en }}</ref> |
|||
<ref name=OLC2024>{{Cite web |url=https://openlegalcommunity.com/ai-training-data-not-protected-by-copyright-german-court-decision-suggests-post-ai-world-and-differences-with-america/ |title=AIトレーニングデータは著作権保護対象外?:ドイツにおける初の判決が示唆するポストAIの世界とアメリカとの違い |website=Open Legal Community (知財メディアサイト) |date=2024-11-01 |author=野口ケルビン (米国特許弁護士) |accessdate=2024-11-09 |language=ja}}</ref> |
|||
<ref name=MF2024>{{Cite web2 |url=https://www.mofo.com/resources/insights/241004-to-scrape-or-not-to-scrape-first-court-decision |title=To Scrape or Not to Scrape? First Court Decision on the EU Copyright Exception for Text and Data Mining in Germany |trans-title=データ収集すべきか否か? ドイツでテキストおよびデータマイニング (TDM) に関するEU著作権例外規定の初判決 |publisher=Morrison & Foerster LLP. (法律事務所) |last1=Ehle |first1=Kristina (弁護士事務所パートナー) |last2=Tüzün |first2=Yeşim (弁護士事務所アソシエート) |accessdate=2024-11-09 |language=en}}</ref> |
|||
<ref name=TLM2024>{{Cite web |url=https://trademarklawyermagazine.com/a-landmark-copyright-case-with-implications-for-ai-and-text-and-data-mining-kneschke-v-laion/ |title=A landmark copyright case with implications for AI and text and data mining: Kneschke v. LAION |trans-title=人工知能とテキスト・データマイニングの解釈に関する著作権侵害訴訟の重要判決: クネシュケ対LAION |publisher=CTC International Media Limited |website=Trademark Lawyer Magazine |date=2024-10-24 |last=Kalhor-Witzel |first=Ronak (知的財産法専門弁護士) |accessdate=2024-11-09 |language=en}}</ref> |
|||
<ref name=WIPOSum>{{Cite web |url=https://www.wipo.int/wipolex/en/text/592042 |title=2024 WIPO IP Judges Forum Informal Case Summary – Hamburg Regional Court, Germany [2024]: Robert Kneschke v. LAION e.V., Case No. 310 O 227/23 |trans-title=2024年 WIPO 知的財産法フォーラム用非公式判例要約 - 2024年ドイツ・ハンブルク地裁: ロベルト・クネシュケ対LAION (事件番号: 310 O 227/23) |publisher=[[WIPO]] |accessdate=2024-11-09 |language=en}}</ref> |
|||
<ref name=KneschkeOfficial202411>{{Cite web |url=https://www.alltageinesfotoproduzenten.de/2024/11/05/berufung-eingelegt-bei-meiner-klage-gegen-laion-e-v/ |title=Künstliche Intelligenz, Rechtliches {{!}} Berufung eingelegt bei meiner Klage gegen LAION e.V. |trans-title=人工知能、法務 {{!}} 私が提起した対LAION訴訟で控訴しました |website=Alltag eines Fotoproduzenten (訳: 写真家としての日々) |last=Kneschke |first=Robert |date=2024-11-05 |accessdate=2024-11-09 |language=de |quote=Vor einigen Tagen habe ich Berufung eingelegt in meiner Klage wegen Urheberrechtsverletzung gegen den Verein LAION e.V. (訳: 数日前、LAIONを相手取った著作権侵害訴訟で控訴しました。)}}</ref> |
|||
<ref name=PrelimRuling-KB>{{Cite web |url=https://kotobank.jp/word/eu%E3%81%AE%E8%A3%81%E5%88%A4%E6%89%80-1995764 |title=EUの裁判所 |author=中村民雄 |publisher=[[コトバンク]] |work=小学館 日本大百科全書(ニッポニカ) |date=2018-06-19 |accessdate=2024-11-09 |language=ja |quote=(1)先決裁定手続preliminary ruling procedure...}}</ref> |
|||
<ref name=Shishido2024>{{Cite report |author1=宍戸常寿 (東京大学大学院 法学政治学研究科 教授) |author2=谷脇康彦 (デジタル政策フォーラム 代表幹事) |title=【特集 デジタルガバナンスの未来】1 データ駆動社会におけるガバナンス機構 |series=デジタル政策の論点 2024 |publisher=デジタル政策フォーラム |url=https://www.digitalpolicyforum.jp/dpi2024_s1/ |format=PDF |language=ja}}</ref> |
|||
<ref name=HiroshimaCoC-Trans>{{Cite report |title=高度なAIシステムを開発する組織向けの広島プロセス国際行動規範 (仮訳) |publisher=[[総務省]] |url=https://www.soumu.go.jp/hiroshimaaiprocess/pdf/document05.pdf |format=PDF |language=ja}}</ref> |
|||
<ref name=HiroshimaP-Doc>{{Cite web |url=https://www.soumu.go.jp/hiroshimaaiprocess/documents.html |title=広島AIプロセス 成果文書 |publisher=[[総務省]] |accessdate=2024-11-24 |archiveurl=https://web.archive.org/web/20241124001649/https://www.soumu.go.jp/hiroshimaaiprocess/documents.html |archivedate=2024-11-24 |url-status=live |url-status-date=2024-11-24 |language=en}}</ref> |
|||
<ref name=AIGuideE-METI>{{Cite report |author=[[総務省]]; [[経済産業省]] |title=Outline of the draft "AI Guidelines for Business" |trans-title=事業向けAIガイドライン草案の概要 仮訳 |publisher=経済産業省 |year=2024 |url=https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20240119_6.pdf |page=6 |format=PDF |language=en}}</ref><!-- date=2024-01 --> |
|||
<ref name=EUMag-Summary>{{Cite web |url=https://eumag.jp/feature/b0615/ |title=デジタル単一市場の構築―次代を切り開くEUの成長戦略 |work=Europe Magazine (駐日欧州連合代表部の公式ウェブマガジン) |publisher=駐日[[欧州連合]]代表部 |date=2015-06-29 |accessdate=2024-11-11 |language=en}}</ref> |
|||
<ref name=DSM-EP>{{Cite web |url=https://www.europarl.europa.eu/factsheets/en/sheet/43/the-ubiquitous-digital-single-market |title=The ubiquitous digital single market |trans-title=誰もがどこからでもアクセスできるデジタル単一市場 |publisher=[[欧州議会]] |last=Martinello |first=Barbara |accessdate=2024-11-11 |language=en}}</ref> |
|||
<ref name=Junker-BBC2014>{{Cite web |url=https://www.bbc.co.uk/news/world-europe-27679170 |title=Profile: EU's Jean-Claude Juncker |trans-title=ジャン=クロード・ユンケルの略歴 |date=2014-07-15 |accessdate=2024-11-11 |publisher=[[BBC]] |archiveurl=https://web.archive.org/web/20181101003046/https://www.bbc.co.uk/news/world-europe-27679170 |archivedate=2018-11-01 |deadurl=no |language=en}}</ref> |
|||
<ref name=DSM-JETRO>{{Cite report |author=JETRO ブリュッセル事務所海外調査部 |title=EUデジタル政策の最新概要 |publisher=[[JETRO]] |date=2021-10 |url=https://www.jetro.go.jp/ext_images/_Reports/01/0a88cad7cdac3e5a/20210038.pdf |format=PDF |language=ja |page=2}}</ref> |
|||
<ref name=China-AI-PwC>{{Cite web |url=https://www.pwc.com/jp/ja/knowledge/column/awareness-cyber-security/generative-ai-regulation05.html |title=生成AIを巡る米欧中の規制動向最前線 {{!}} 中国におけるAI関連規制 |publisher=[[PricewaterhouseCoopers]] |accessdate=2024-11-30 |language=ja |archiveurl=https://web.archive.org/web/20241130063109/https://www.pwc.com/jp/ja/knowledge/column/awareness-cyber-security/generative-ai-regulation05.html |archivedate=2024-11-30 |url-status=live |url-status-date=2024-11-30}}</ref> |
|||
<ref name=EUSystem-Hamamoto>{{Cite report |author=濵本正太郎 (京都大学法学研究科国際機構法教授) |series=京都大学法科大学院・公共政策大学院 2016年度後期 EU法 第2回予習資料 |title=第2回 EUの機構的構造・立法過程・EUと構成国との権限配分 |publisher=[[京都大学]] |year=2016 |page=6 |url=http://www.hamamoto.law.kyoto-u.ac.jp/kogi/2016/2016EU/02kiko.pdf |format=PDF |language=ja}}</ref> |
|||
}} |
|||
=== 参考文献 === |
|||
* {{Cite report |author=[[欧州連合]]日本政府代表部 |title=EU AI規則の概要 |year=2024 |publisher=欧州連合 |series=[https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689 英語公式条文]の翻訳 |url=https://www.eu.emb-japan.go.jp/files/100741144.pdf |format=PDF |language=ja |ref={{SfnRef|EU日本政府代表部|2024}}}} |
|||
* {{Cite report |author=小泉雄介 |title=EUのAI法(AI規則)の概要 |date=2024-07-12 |publisher=国際社会経済研究所 (IISE) |url=https://www.i-ise.com/jp/information/media/2024/240718.pdf |format=PDF |language=ja |ref={{SfnRef|IISE|2024}}}} |
|||
* {{Cite book |author=庄司克宏 |authorlink=庄司克宏 |title=はじめてのEU法 |publisher=[[有斐閣]] |url=http://www.yuhikaku.co.jp/books/detail/9784641048164 |date=2015-12 |isbn=978-4-641-04816-4 |language=ja |ref={{SfnRef|庄司|2015}}}} |
|||
* {{Cite report |author=[[総務省]] |title=令和5年版 情報通信白書 PDF全体版 |year=2023 |publisher=総務省 |url=https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/r05/pdf/index.html |language=ja |ref={{SfnRef|情報通信白書|2023}}}} |
|||
* {{Cite report |author=[[総務省]] |title=令和6年版 情報通信白書 PDF全体版 |year=2024 |publisher=総務省 |url=https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/r06/pdf/index.html |language=ja |ref={{SfnRef|情報通信白書|2024}}}} |
|||
* {{Cite report |url=https://cdnw8.eu-japan.eu/sites/default/files/imce/library/v1%20EU-Digital-Policy10_%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD%E6%B3%95.pdf |title= EU 人工知能法 (AI Act)- 採択・最終決定 |publisher=一般財団法人 [[日欧産業協力センター]] (EUJC) |series=欧州デジタル政策 EU Policy Insights Vol.10 |year=2024 |language=ja |ref={{SfnRef|EUJC|2024}}}} |
|||
* {{Cite report |author=European Parliament |title=AT A GLANCE {{!}} Digital issues in focus {{!}} General-purpose artificial intelligence |trans-title=概説 {{!}} デジタル関連の要検討課題 {{!}} 汎用目的AI |publisher=[[欧州議会]] |year=2023 |url=https://www.europarl.europa.eu/RegData/etudes/ATAG/2023/745708/EPRS_ATA(2023)745708_EN.pdf |format=PDF |language=en |ref={{SfnRef|欧州議会 GPAI|2023}}}} |
|||
* {{Cite journal |last=Leiser |first=Mark (アムステルダム自由大学 法・情報学研究所) |title=Psychological Patterns and Article 5 of the AI Act :AI-Powered Deceptive Design in the System Architecture and the User Interface |trans-title=心理パターンとAI法 第5条: システム・アーキテクチャーおよびユーザー・インターフェースにおける欺瞞的なAIデザイン |journal=Journal of AI law and Regulation |publisher=[[アムステルダム自由大学|Vrije Universiteit Amsterdam]] |year=2024 |pages=5–23|url=https://research.vu.nl/ws/portalfiles/portal/306629759/aire_2024_01-005.pdf |format=PDF |language=en |ref={{SfnRef|Leiser|2024}}}}<!-- P17の脚注56, 57, 58, 59によると欧州委員会当初提案版、2023年6月14日の欧州議会修正案可決版、2023年6月20日の欧州委員会公表アプローチ文書を参照して執筆されている。2023年12月の3者対話 (トリローグ) を経て大幅修正が加わっているため、第5条の逐条解説と分析は古い情報に基づいており、使用不可。 --> |
|||
== 参考文献 == |
|||
* {{Cite report |author=Samoili, Sofia; Lopez Cobo, Montserrat; Delipetrev, Blagoj; Martinez-Plumed, Fernando; Gomez Gutierrez, Emilia; De Prato, Giuditta |title=AI Watch. Defining Artificial Intelligence 2.0 |trans-title=AI動向 - 人工知能2.0時代を定義 |series=JRC126426 (works under the European Commission's Joint Research Centre) |publisher=Publications Office of the [[欧州連合|European Union]] |date=2021-10-29 |url=https://publications.jrc.ec.europa.eu/repository/handle/JRC126426 |isbn=978-92-76-42648-6 |doi=10.2760/019901 |language=en |ref={{SfnRef|JRC|2021}}}} |
|||
{{reflist|40em}} |
|||
== 外部リンク == |
== 外部リンク == |
||
* [https://digital-strategy.ec.europa.eu/en/policies/ai-office 欧州委員会 AIオフィス公式ページ] (英語) - AI法関連の最新文書などのリンク多数 |
|||
* [https://miraitranslate.com/blog/20240719_02/ 欧州議会による公式解説日本語訳] - 欧州議会の説明資料の2024年6月18日最終更新版ベースの翻訳のため、可決後の内容を反映済。 |
|||
* [https://www.soumu.go.jp/main_content/000826706.pdf AI法案の日本語仮訳] - 2022年7月時点の「法案」ベースのため、可決発効された最終版と大きく異なる点に留意。総務省「AIネットワーク社会推進会議」審議資料の一環で作成 ([https://www.aplawjapan.com/publications/20220725 背景説明]) |
|||
* [https://ai-act-law.eu/recital/ AI法の前文条項別ページ] (英語) - 180の前文 (Recital) を条項ごとにページ分割して検索・閲覧できるサイト |
|||
* [https://www.soumu.go.jp/hiroshimaaiprocess/ 広島AIプロセス] (日本語) - 2023年広島開催の[[G7]]議論に基づき発足した、AIガバナンスの国際連携枠組 |
|||
* [https://www.whitehouse.gov/ostp/ai-bill-of-rights/ AI権利章典ブループリント] (英語) - [[アメリカ合衆国科学技術政策局]] (OSTP) 作成、2022年10月公表。法的拘束力はない。原題: "''Blueprint for an AI Bill of Rights''" |
|||
* [https://www8.cao.go.jp/cstp/ai/ningen/r4_2kai/siryo3.pdf AI権利章典ブループリント概要まとめ] (日本語) - OSTP公表原文のうち要点を5つにまとめた資料。日本の内閣府 科学技術・イノベーション推進事務局が2022年12月公表。 |
|||
{{Normdaten}} |
{{Normdaten}} |
||
{{DEFAULTSORT:ええあいほう}} |
{{DEFAULTSORT:ええあいほう}} |
||
[[Category:欧州連合の規則]] |
|||
[[Category:人工知能]] |
[[Category:人工知能]] |
||
[[Category:情報法]] |
[[Category:情報法]] |
||
[[Category:プライバシー法]] |
[[Category:プライバシー法]] |
||
[[Category:2024年の欧州連合]] |
2024年11月30日 (土) 07:12時点における版
この記事は特に記述がない限り、欧州連合の法令について解説しています。また最新の法令改正を反映していない場合があります。 |
欧州連合規則 | |
EEA適用対象 | |
名称 | Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance) |
---|---|
適用範囲 | 全EU加盟国およびEEA |
制定者 | 欧州議会と欧州連合理事会の共同採択 (通常立法手続) |
法源 | EU機能条約[1] |
EU官報 | L, 2024/1689 |
沿革 | |
欧州議会 賛成票数 |
523 / 618 (2024年3月13日可決)[2][3] |
欧州連合理事会 賛成票数 |
27 / 27 (2024年5月21日可決)[3][4]:2 |
制定日 | 2024年6月13日[1] |
発効日 | 2024年8月1日[1] |
適用日 | 2025年2月2日より条文ごとに段階的に適用開始[1] |
立法審議文書 | |
欧州委員会提案 | COM/2021/206 (Document 52021PC0206、2021年4月21日提案) |
EESC 意見書 | EESC 2021/02482 (2021年9月22日提出)[3] |
CR 意見書 | COR 2021/02682 (2021年12月2日提出)[3] |
その他審議資料 | 欧州中央銀行 意見書: CON/2021/40 (2021年12月29日提出)[3] |
関連法令 | |
改正対象 | |
現行法 |
欧州連合 (EU) のAI法 (エーアイほう、別称: AI規則[5][6]、英: the Artificial Intelligence Act)[注 1]は、世界初の人工知能 (AI) に関する包括的な規制法である[12][注 2]。AI法は信頼性の高いAIの導入を促進しつつ、有害リスク度に応じて (1) 許容できないリスク、(2) 高リスク、(3) 限定的なリスク、(4) 最小限のリスクの4レベルに分類して異なる規制や義務を課す[14][5]。違反時にはレベルごとに異なる制裁金が科される[15]。
またリスク分類とは別に、「汎用AIモデル」(general-purpose AI models、略称: GPAI) を対象とした特別規定もAI法では追加で設けている[16]。AI法の立法過程では、汎用AIモデルの代表例としてChatGPTやGemini (旧名: Bard) といった生成AIが欧州議会から名指しされ[17]、差別や偽情報といった有害コンテンツの生成や、個人情報の不適切な取扱などの懸念が呈されている[18]。
仮に日本や米国などのEU域外で設立された団体や他国民が開発したAIでも、それがEU域内に輸入されて販売・利用されればAI法の規制対象になる (いわゆる域外適用)[19]。ただし、軍事・防衛や科学研究に特化したAIなど、一部条件に合致するAIは同法の規制対象から除外されている[16]。
AI法は禁止事項や義務を規制当局からトップダウンで示すだけでなく、AIに従事する事業者が行動規範 (Code of Conduct)[20][21]や実践規範 (Code of Practice)[22][23]を自律的に定めて運用していくボトムアップのアプローチも併用している。またEU基準に適合したAIには民間非営利団体からCEマークが付与され、安全性が可視化される[24]。EUの行政執行機関である欧州委員会内にAIオフィスが設置されており、こうした官民連携の調整・推進役を担っている[25]。
AI法は2024年8月1日に発効し[26]、条文ごとに段階的に適用を開始する[1][27]。(1) 許容できないリスクのAIシステムは2025年2月2日に原則禁止となる[注 3]。
規制対象の定義と規制内容
以下のとおり、AI法では「何」(システムの種類) および「誰」(AIに携わる者の種類) を規制対象に含めるのかを分類している。
なお、立法過程では当初法案から数千か所に修正が加えられており[28]、AI「法案」を解説した文献は古い条文案に基づいていて正確性を欠く可能性があるため、参照時には留意が必要である。
規制対象システムの分類
- システム全般
- AIシステム
- AI法における規制対象内
- Weak or Narrow AI (ANI)
- Strong or General AI (AGI)
- 汎用AIモデル (General-purpose AI models、略称: GPAI)
- システミックリスク (Systemic risk) を有するGPAI
- システミックリスクを有さないGPAI
- 汎用AIモデル (General-purpose AI models、略称: GPAI)
- AI法における規制対象外
- AI法における規制対象内
- AI以外の一般的なソフトウェア
- AIシステム
AI法が想定するAIと一般的なソフトウェアの相違点であるが、自律的な動作や予測・推奨コンテンツの生成といった特徴が挙げられ[29][30]、このようなAIの要件定義は国際機関の経済協力開発機構 (OECD) で用いられているものと類似している[30]。
AIシステム全般に対し、4段階のリスク度に応じた規制・義務をAI法では規定している。AI法ではこれを「リスクベースアプローチ」と呼んでいる[31][14]。汎用AIモデル (GPAI) は5つ目のリスク分類ではなく、4段階のリスク分類とは別軸で捉えられている[32]。
汎用AIモデルとは何かについて、AI法の立法者である欧州議会でさえも「確固とした定義はない」とことわりを入れている[17]。その上で、アルゴリズムやその背景にある理論上の観点から "Weak or Narrow AI" (ANI) と "Strong or General AI" (AGI) にAI全般を二分している[注 4]。特定目的に特化したAIであるANIとは、たとえば画像認識や音声スピーチ認識といった、特定の目的に沿ってデータを処理するAIシステムである[17]。一方、多用途で影響力の大きいAGIは、たとえば自然言語 (プログラミング言語ではなく人々が日常的に会話や文書で使用する言語) で記述された大量のデータを読み取るだけでなく、ディープラーニング (深層学習) 技術によって文脈なども理解できる大規模言語モデル (LLM) などを備えており、こうした革新的な技術を用いている点でANIとは異なる[17]。換言するとAGIとは、人間の知的なタスク処理を代行しうるシステムを指す[33]。
こうした高度なタスク処理が可能なAGIのうち、特にテキスト文書やイメージ画像、動画などのコンテンツを生成できる能力を持つものを、AI法では「汎用AIモデル」と呼んでいる[17]。欧州議会では汎用AIモデルの例として、ChatGPT (Microsoft社と提携関係にある団体OpenAIが開発) やGemini (旧称: Bard、Google傘下による開発) の名前を挙げている[17]。このような汎用AIモデルは、さまざまなシステムやサービスの基礎・基盤としての重要な役割を担う一方で[17]、倫理的・社会的な問題を引き起こすリスクが懸念されている[18]。たとえば、人種差別や暴力、レッテル張りするようなコンテンツの生成、個人情報や機微情報の取扱不備、偽情報や詐欺情報の生成といった問題が具体的に挙げられる[18]。
なお、AI「システム」とAI「モデル」は別個の概念としてAI法では用語を使い分けている。AIモデルはAIシステムに統合され (組み込まれ) た形で用いられる[34]。そのためシステム開発プロセスの概念上はモデルが川上、システムが川下 (Downstream) の位置づけになっている[34]。
以下、AIシステム別の定義や義務、規制行為を解説する。
(1) 許容できないリスク
許容できないリスク (英: Unacceptable risk) のあるAIは重大な危害を与えうるため[35]、AI法 第5条第1項に基づいて禁止される[36]。同条項の (a)号から (h)号で禁止される利用方法が具体的に列記されている[37][38]。うち (e)号から (h)号の4項目は生体データ関連である[39]。
- (a)号: サブリミナル技術 - AI法の前文 (29) によると、音声または画像、映像を人間が意識的に知覚できない方法で表示させる、あるいは人の自律的な意思決定を歪める欺瞞的な技術を指す[注 5]。
- (b)号: 脆弱性の悪用 - 特定の年齢層、障害の有無、社会経済的地位といった個人ないし集団の特徴を悪用し、重大な損害などを与えうるシステム[40][41]
- (c)号: ソーシャルスコアリング - ソーシャルスコアリングとは、個人の日常生活の言動が監視され、社会全体にとってどの程度有益か社会信用がスコア (数値) で評価される仕組みである[42]。AI法では、社会的行動や人格的特徴に基づいて人々を不当にランク付けするAIシステムのうち、特に分析データの元の文脈と乖離している、あるいはスコアリングによって不当・不公平な影響をおよぼすものを禁じる[43][39][41][注 6]。
- (d)号: 犯罪予測 - 犯罪捜査で用いられるプロファイリングなどによって、個々人が犯罪を犯すリスクを評価・予測するシステム (ただし犯罪に直結する客観的事実に基づいた人物評価の場合を除く)[39][41]
- (e)号: 顔画像のスクレイピング (データ収集・抽出) - インターネットあるいは監視カメラ (CCTV) から無差別に顔画像を収集して作成されたデータベース[39][41]
- (f)号: 感情推測 - 職場ないし教育機関で用いる場合は原則禁止 (ただし、治療目的といった医療上ないし安全上の理由を除く)[39][41]
- (g)号: 生体分類 (属性推定システム) - 人種、政治的意見、労働組合への加入、宗教・思想上の信条、性生活・性的指向を推測するシステム[39][41]
- (h)号: リアルタイム・リモート生体識別 (略称: RBI) - 警察などの法執行機関によるAI常時監視システムは原則禁止 (ただし行方不明者の捜索やテロ犯罪組織の容疑者の位置特定といった深刻な状況下は特例として除外する[注 7])[45][2]
(a)号の欺瞞的なサブリミナル技術と (b)号の脆弱性の悪用については、情報法専門家による欺瞞的な (人を欺くような) システムデザインの観点からの論考がある。AI法成立以前にも欺瞞的なデザインは存在し、「ダークパターン」(Dark patterns) の総称で知られていた[46]。ダークパターンの身近な具体例を挙げると、航空チケット予約サイトで追加オプションサービスがデフォルトで選択されているようなウェブデザインである。オプションを希望しないユーザーの一部はこれに気付かずに購入してしまう[47]。こうした表層的なユーザーインターフェース (UI) のテクニックだけでなく、専門家の知見と技術なしでは見破るのが非常に困難なシステムアーキテクチャー (システムの根本的な設計) におよぶ欺瞞的なデザインが問題視されている[47]。
AI法以前は主に2つの側面からこうした欺瞞的デザインへの対応を試みてきた。まず消費者保護や悪徳商法取締の切り口から、2005年制定の不公正取引慣行指令 (略称: UCPD) をはじめとする欧州消費者法の改正である[48]。もう一つの切り口が、2016年制定のEU一般データ保護規則 (略称: GDPR 、Regulation (EU) 2016/679) による個人データ保護や[48]、さらにユーザーの保護範囲を広げた2022年制定のデジタルサービス法 (略称: DSA、Regulation (EU) 2022/2065) である[49]。DSAの第25条(1)項はダークパターン対策が意識されており、ユーザーの自律的な意思決定を歪めるような欺瞞的デザインを禁じている[49]。しかしDSAは条文の文言に曖昧さがあり、GDPRやUCPDといった他法と部分的に重複しうる[49]。また日進月歩の欺瞞的デザインに対し、「オンライン・プラットフォーム」にしか適用されないDSAはどこまで有効なのか、疑問も呈されている[49]。
一方AI法の第5条は、不公正取引慣行指令やDSAの第25条だけではカバーしきれないタイプの欺瞞的なデザインにも対応しうると考えられている[50]。その一つが、アルゴリズムに深く根差した欺瞞的デザイン (Algorithmic manipulation) である。このタイプはたとえば、過去履歴に基づいてユーザーごとにカスタマイズしたコンテンツ表示されるアルゴリズムによって、無意識のうちに偏った情報にばかりユーザーが触れてしまう「エコーチェンバー現象」が問題視されている[51]。もう一つのタイプが、システム依存を起こす欺瞞的デザイン (System dependency and control) である。その特徴として「ネットワーク効果」がある[52]。ネットワーク効果とは、SNSのようなデジタル・プラットフォームがひとたび多くのユーザーを獲得すると、既存ユーザーが新規潜在ユーザーを呼び込む、あるいはオンラインショッピングのように新規出店者を呼び込む現象である[53][54]。その結果、魅力的な代替サービスが新たに登場しても乗り換えづらくなってさらにユーザー数が増える連鎖現象が確認されている[53]。
(c)号のソーシャルスコアリングもAIとの親和性が高い。これはAIが人の顔認証や言動分析に長けていることから、スコアリングに必要な監視データの解析に利用できるためである[42]。低スコアの評価が下された個人は、利用できる教育機会や医療サービス、公共財に制限がかかるといった使い方が想定される[42]。ただし倫理面で問題を抱えていることから、ソーシャルスコアリングの制度を導入しているのは世界的にも中国政府のみの状況である[42]。
ところが社会全体ではなく、よりミクロなレベルで見るとたとえば配車サービスの米系企業Uberはトラブルのあった利用客をブラックリスト入りさせる仕組みを運用している。また米国ニューヨークでは、ソーシャルメディア上の言動を元に保険会社が保険加入者の保険料を個別設定する商慣行が認められている。こうしたミクロなレベルでは欧米諸国でもソーシャルスコアリングは行われているのが実態である[42]。ソーシャルスコアリングにAIを活用するには、高い精度の監視データと解析能力が前提となるが、実際にはバイアスのかかったデータが混じったり、不当なスコアリング結果を出してしまう技術的な問題が指摘されている。これに対応すべくAI法第5条で不当なソーシャルスコアリングを行うAIが禁止された[42]。
(2) 高リスク
高リスク (英: High risk) なAIシステムは以下の2カテゴリーに分類される[55][56]。
- 第1カテゴリー【既存】: 身体などの安全性にかかわるリスク - AI法成立以前のEU諸法で安全面の観点から既に規制を受けていた製品。ここで言う「諸法」はAI法の附則 1 (Annex I) のSection AおよびBで計20本列記されており、玩具や船舶、エレベーターや医療機器などが規制製品対象に含まれる。これら諸法で「第三者による適合性評価義務の対象」と指定されている場合に限る[注 8][注 9]。
- 第2カテゴリー【新規】: 基本的人権などにかかわるリスク - AI法成立で新たに規制を受ける領域[55]。AI法の附則 3 (Annex III) で8領域が列記されているが[55][16]、EU行政機関である欧州委員会による委任法令[注 10]で別途、この8領域に追加・修正・削除が可能となっている[16]。
- 生体認証
- 重要インフラの安全部品 (通信、交通、水道、ガス、電力など)
- 教育・職業訓練 (教育機関などへの入学割当、学習評価、テスト中の監視など)
- 労務 (人材選考採用、昇進・解雇・給与などの労務管理、職務分掌・役割分担の決定など)
- 公共性の高いサービスの利用判断 (公的給付金の個人審査、クレジットカードの個人信用調査、生命保険や健康保険の保険料率個別計算、警察・消防・救急車などの対応優先度決定など)
- 警察などの法執行 (犯罪被害者になるリスク評価、犯罪被疑者・再犯者の予測など)
- 移民・亡命・国境管理 (不法移民のリスク評価、ポリグラフ (心拍や呼吸測定機) による移民・亡命審査など)
- 司法手続および民主的手続 (司法当局による事実調査・法律解釈、選挙・住民投票に影響を与える行為など)
これらの領域にAIシステムが用いることは禁じられていない。しかしAIシステムの開発者や提供者にはリスク管理の手法文書化、リスク管理の組織体制構築、AIシステムの技術文書作成、AI学習データの品質管理、自動まかせにしない人的監視、異常検知と重大インシデントの当局報告、利用者がAIによる生成だと判別がつく透明性の担保といった義務が課される。具体的な義務は、AI法 第8条-第15条 (高リスクAIシステムが満たすべき要件)[58]、第16条-第25条[59]、第40条-第44条 (高リスクAIシステムの適合性評価手続)[60]、第48条-第51条[61]、第62条[59]、第72条 (市販後モニタリング)[62]、第73条 (インシデント報告義務)[63]も参照のこと。EU域外の者が提供する場合はEU域内代理人を指定し、これらの義務遂行を委任する必要がある[64]。
なお#立法の沿革で後述のとおり、AI法は当初法案から数千か所の修正が加えられており、特に高リスクAIシステム関連の条項は2023年12月9日合意の三者対話 (英: trilogue、トリローグ) で加筆修正が多数加えられている[65][66][注 11]。
(3) 限定的なリスク
限定的なリスク (英: Limited risk) のAIシステムの例として生成AI (ディープフェイク含む[67])、対話型AI (チャットボット)、感情認識システムなどが挙げられる[31]。上述の (2) 高リスクではさまざまな義務が課されている一方、(3) 限定的なリスクでは利用者への透明化義務が課されているのみである[31]。ここでの「透明化義務」は第50条にて規定されており、チャットボットであればユーザーがAIとやりとりしていることが分かるようにする[68][69]。コンテンツ生成型のAIであれば、生成された画像や動画に電子透かしを入れる、ニュース記事内で明記するなどの方法で、AIの使用有無がコンテンツ閲覧者に判別がつくようにする[68][70]。
第50条の透明化義務以外では、第95条で自主的な「行動規範」(Code of Conduct) に基づく開発・運用を求めている[20][21](#行動規範で詳述)。
(4) 最小限のリスク
最小限のリスク (英: Minimal risk) しかないAIは、具体例としてスパムフィルタが挙げられる[32]。EUの行政機関である欧州委員会によると、大半のAIは (4) 最小限リスクに分類される[32]。このリスクレベルに該当するAIシステムは、原則として自由に利用が可能である。しかし (3) 限定的なリスクと同様、第95条の「行動規範」に基づく自主性が推奨されている[31](#行動規範で詳述)。
汎用AIモデル
AI法の草案作成当初は「汎用AIモデル」(general-purpose AI models、略称: GPAI) のリスクが十分に認識されていなかったことから、特別規定は盛り込まれていなかったが[18]、法案提出から1年あまりが経過した後に欧州連合理事会が追加修正案を提出し[28]、その後も修正を重ねて[28]特別規定を設けることとなった[16][32]。さらに汎用AIモデルのなかでも、「システミックリスク」(Systemic risk) を有するものについては追加の特別規定がある[71][72]。汎用AI「モデル」はAI「システム」とは異なるため、上述の4つのリスクレベルで分類されない。ただし汎用AI「モデル」が他のAI「システム」に組み込まれ、(2) 高リスクと判定された場合は、上述のリスクレベル別の義務も併せて負うことになる[73]。
- システミックリスク
- システミックリスクを有する汎用AIモデルとは、学習に使用される計算能力が相当に高いことから[73]、公衆衛生・安全・治安・基本的人権といった重要な領域に対してEU広域に影響をおよぼしうるもの (high-impact capabilities) を指す[72]。第53条第1項に基づき、以下の措置を「追加」で講じる義務を負う[76]。
- モデル評価の実施
- リスク評価と軽減対策
- 重大インシデント発生時の当局報告と是正対応
- サイバーセキュリティ対策
- 何をシステミックリスクを有する汎用AIモデルに指定すべきかについては、第51条で「高い影響力」の基準が示されている[72][71]。
- 第51条第1項の基準: 指標やベンチマークといった適切な技術ツール・方法論で評価
- 第51条第2項の基準: 学習に使用された累積計算量が浮動小数点演算 (FLOPS) で計測して (10の25乗) を超える場合
- 第1項については、EUの行政機関である欧州委員会が有識者などからの助言を受け、かつAI法の附則13 (Annex XIII) で定められた基準に基づいて、対象となる汎用AIモデルを指定できる[72][71]。附則13にはモデルのパラメータ数、学習コストや学習時間の推定値といった技術的な定量指標のほか、登録ユーザー数といった社会的な影響度を測る指標などが挙げられている[77]。また、AI提供者側 (事業者側) が上述の基準に該当すると自己認識した際には、2週間以内に欧州委員会に通知する義務を負う[77]。
適用対象外のAIシステム
第2条ではAI法の適用対象から除外される要件を定めているが、そのうちAI法全般の義務・規制から除外されるものは以下のとおりである。
- 軍事、防衛または国家安全保障目的に特化したAI (これ以外の目的も兼ねるAIは含まない)[16][29]
- 科学研究開発目的に特化したAI[16][29]
- 研究・開発段階にあって、市場未投入・未稼働の状態にあるAIシステムまたはAIモデル[16][29]
- フリー・オープンソース・ライセンスでリリースされているAIシステムのうち、リスクレベルが (3) 限定的ないし (4) 最小限に分類されるもの[16]。
規制適用者の分類
つづいてAIシステムやAIモデルに従事する者のうち、「誰」がAI法の規制を受けるのかを述べる。第2条で対象者が列記され[78]、各用語は第3条で定義されている[34][79]。
- AI従事者全般 (Operator、オペレーター)[79]
- AI提供者 (Provider、プロバイダー) - 法人・個人を問わずAIシステムやAIモデルの「開発」者。あるいは自らの名前・商標で市場に「投入」する、あるいは「稼働」させる者。有償・無償も不問[34][79]。
- AI導入者 (Deployer、ディプロイヤー) - 自らの権限の下でのAIシステムの「利用」者。法人・個人は問わないが、あくまで個人的な目的であり職務以外の目的で利用する者は除く[34][79]。
- AI輸入者 (Importer) - EU域外のAIシステムをEU域内の市場に投入・提供する者で、EU域内に拠点を置く法人・個人[79]。
- AI販売者 (Distributor、頒布者、ディストリビューター) - AIシステムの特性に影響を与えず、EU域内利用を可能にする者のうち、上述の提供者や輸入者以外の法人・個人[79]。
- AIシステムを組み込んだ製品製造者 (Product manufacturers) - その製品が製造者の名前・商標で上市しており、その製品の中にAIシステムが組み込まれている場合[78]。
「提供者」と「導入者」には十分な「AIリテラシー」が求められる (第4条)。ここでのAIリテラシーとは技術的知識や経験を有しており、適切な教育・訓練を受けており、AIシステムが使用される文脈に即した操作や使用ができる能力を指す。提供者や導入者はAIリテラシーを有する人員を確保しなければならない[81][82]。ただし違反時の制裁金などは定められていない[82]。
(3) 高リスクAIシステムを取り扱う場合、「提供者」は第16条から第25条などで[59][83]、「導入者」は第26条・第27条で[84][85]それぞれ異なる義務が個別詳細に規定されている。高リスクAIシステムの提供者はたとえば、技術文書の作成やデータ管理の手順整備、ログの記録と重大インシデント発生時の報告体制の整備といった義務が課される[86]。上市前にはEU適合性評価手続を受け、CEマークを取得する必要がある[86](#適合性評価で詳細後述)。(3) 高リスクAIシステムの「提供者」に課される義務のうち、第23条と第24条は「輸入者」と「販売者」にも関係する。CEマーク、EU適合性宣言および使用説明書関連が第23条と第24条である[87]。一方、高リスクAIシステムの導入者は、たとえば自動まかせにしない人的監視体制の構築や、使用説明書に沿った利用などが義務として規定されている[88]。
汎用AI「モデル」については、AI「システム」ではないことから、主に提供者の義務が定められている[78]。
適用対象外の者
以下の者がAIシステムを利用する場合は、AI法で定められた規制や義務が適用されない。
適合性評価
(2) 高リスクAIシステムおよび汎用目的AIモデルの一部は、AI法が定める「適合性評価手続」(Conformity assessment procedure) を踏まなければならない[60][89]。ここでの「適合性」とは欧州基準のサイバーセキュリティ対策などが適切にとられていることを表す (AI法前文 (78) 参照)。
EUの行政機関である欧州委員会は、欧州標準化委員会 (略称: CEN) や欧州電気標準化委員会 (略称: CENELEC) といった非営利の欧州標準化団体に適合性の基準 (つまりAI業界規格) を定めるよう要請する権限を有する[60][90]。CENやCENELECが定めた規格に適合した場合、CEマーク (CE適合性マーク) がAIシステムに付与される[24]。CEマークはAI以外にも幅広く用いられている認証マークの仕組みであり、玩具や医療機器の安全性担保やエコデザインなどの環境負荷軽減対策など、さまざまなEUの法令に対応している[91]。AIシステムの特性に応じ、自己評価で適合性評価を行ってもよいケースと、適合性評価機関による第三者認証を求めるケースがある[60][89]。
実践規範と行動規範
AI法では2つの「規範」が規定されている。
1つ目が汎用AIモデルを対象とした実践規範 (Code of Practice) である (第56条)[22][23]。AI法では実践規範の内容は規定されておらず、欧州委員会内に設置されたAIオフィスの指揮の下、汎用AIモデルの提供者とEU加盟各国の所轄機関を招待して実践規範を策定することが奨励されているのみである[22][23]。また市民社会組織、産業界、学界並びに川下提供者や独立専門家などから実践規範策定の支援を仰ぐことができる[22][23]。欧州委員会はAI法の発効から3か月後の2024年11月、30ページ以上にわたる実践規範の草案初版を公開した[92][93]。
2つ目は限定的リスクおよび最小限リスクのAIシステムを対象とした行動規範 (Code of Conduct) である (第95条)[20][21]。これはAI法 第3章第2節 (第8条から第15条) で具体的に定められた高リスクAIシステムに求められる義務を、それ未満のリスクシステムにも事業者が自主的に守るよう促す目的で策定されるものである[20][21]。AIオフィスと欧州AI委員会 (European Artificial Intelligence Board、略称: EAIB) の指揮の下、行動規範の策定参加者は提供者だけでなく導入者も加わり、外部専門家や利害関係者からも助言支援を仰ぐことができる[20][21]。欧州AI委員会はEU加盟各国から1名代表を出して構成される会議体であり、欧州データ保護監察官 (European Data Protection Supervisor、略称: EDPS) もオブザーバー参加する[25][94]。
AIを積極活用するデジタル・プラットフォームは複数のプレイヤーが複雑に連携しあって構築・運営されていることから、政府がルールを設定し、事業者がそれを遵守し、ユーザー個人はその恩恵を受け身の姿勢で待つという従来型のトップダウン的なガバナンス構造では、対応スピード面で限界に達しているとの識者見解もある[95]:3–4。AI法の実践規範や行動規範のように事業者が自主的に策定に関与して、安全なAIの普及をボトムアップ的に促進するアプローチの必要性は、先進7か国首脳会議 (G7) でも2023年の広島サミットで議論されており[96]、後に具体化されて「広島AIプロセス国際行動規範」の名称で文書化がなされている[97][98]。
罰則
AI法の第12章 (第99条から第101条) が罰則規定になっている。違反の場合はレベルごとに異なる罰則を設けており、最大で3,500万ユーロ (2024年時点で約56億円相当[14])、あるいは年間世界売上高の7%相当のいずれか高い方の金額が制裁金として科される (大企業の場合)[15][99]。ただしAI法が定めるのは制裁金の上限であり、実際の金額はEU加盟各国が決定する[100]。
#段階適用で後述のとおり、AI法は条文ごとに段階的に適用開始となる。汎用AIモデルに関しては、義務の適用が開始されてもしばらくは罰則規定が未適用となる。
条文の全体構成
EU官報の原文に基づき[1]、日本語の仮訳と英語の条名を以下に併記する。
- 前文 (Recital) - (1) から (180) まで。立法の目的や、各条文で用いられる用語の定義などを含む。
- 第1章 (Chapter 1): 一般規定 (General Provisions) - 第1条から第4条まで。第1条が規制の対象となるAI (Subject matter)、第2条が規制の対象者 (Scope)、第3条が用語の定義 (Definitions)、第4条がAIリテラシー (AI literacy)。
- 第2章 (Chapter 2): 禁止されるAIの利用・運用方法 (Prohibited AI Practices) - 第5条のみ。第5条には (a) から (h) まで8項があり、欺瞞的なデザインや差別的なコンテンツの生成など、具体的な禁止事項が列記されている。
- 第3章 (Chapter 3): 高リスクAIシステム (High-risk AI Systems) - 第6条から第49条まで。第9条でリスク管理体制の整備を、第10条でデータ・ガバナンス方針を、第11条で技術設計などの文書化を、第12条でログの記録義務をそれぞれ定めている。
- 第4章 (Chapter 4): 特定のAIシステムの提供者および導入者に対する透明性の義務 (Transparency Obligations for Provider and Deployers of Certain AI Systems) - 第50条のみ。
- 第5章 (Chapter 5): 汎用AIモデル (General-purpose AI Models) - 第51条から第56条まで。第51条がGPAIの定義、第53条から第55条がGPAIに課される義務、第56条がGPAIの実践規範 (Codes of Practice)。
- 第6章 (Chapter 6): イノベーション支援措置 (Measures in Support of Innovation) - 第57条から第63条まで。第57条から第61条までがAI規則サンドボックス (AI regulatory sandboxes) に関する規定。第62条が中小企業・スタートアップ支援措置。
- 第7章 (Chapter 7): ガバナンス (Governance) - 第64条から第70条。EU全体レベルおよびEU加盟国レベルのガバナンス。
- 第8章 (Chapter 8): 高リスクAIシステムのEUデータベース (EU database for high-risk AI systems) - 第71条のみ。附則 3 (Annex III) で列記される高リスクAIシステムを一覧公表。
- 第9章 (Chapter 9): 市場導入後の動向観察、情報共有と市場調査 (Post-market Monitoring, Information Sharing and Market Surveillance) - 第72条から第94条。市場監視規則 (Regulation (EU) 2019/1020) をAI法にも適用。
- 第10章 (Chapter 10): 行動規範とガイドライン (Codes of Conduct and Guidelines) - 第95条・第96条。
- 第11章 (Chapter 11): 権限の委任および委員会の手続 (Delegation of Power and Committee Procedure) - 第97条・第98条。Regulation (EU) No 182/2011 (欧州委員会の実施権限行使に関する規則) に基づく[注 12]。
- 第12章 (Chapter 12): 罰則 (Penalties) - 第99条から第101条。
- 第13章 (Chapter 13): 最終規定 (Final Provisions) - 第102条から第113条。第102条から第110条は、他のEU規則やEU指令の改正情報[注 13]。第111条・第113条にて、段階的な適用日を設定。
- 附則 (Annex) - 附則1 (Annex I) から 附則13 (Annex XIII) まで。禁止されるAIのうち、リアルタイム・リモート生体識別の例外を附則2で規定。高リスクAIシステムに対し、AI法以外で多重に規制をかけるEU諸法令を附則1にて、AI法で新たに規制がかかる8領域を附則3にてそれぞれ列記。AI提供者の技術文書化義務関連が附則4。適合性評価関連が附則5から附則7。透明化義務関連が附則11・附則12。汎用AIモデルのシステミックリスクに関して附則13で基準列記。
立法の沿革
AI法の立法は、欧州委員会委員長のジャン=クロード・ユンケル主導の下、2015年に提唱されたデジタル単一市場戦略 (DSM戦略) の一環である[101]。時に強固な「フェデラリスト」(欧州中央集権派) と批判的に評されたユンケルは[102]、その任期中 (-2019年) にDSM関連法案を28本成立させ、AI法を含む2法案はユンケルから委員長職を受け継いだウルズラ・フォン・デア・ライエン体制下で実現している[103]。DSM戦略とは、デジタル・プラットフォーム全般に消費者や事業者が安全、公正かつ効率的にアクセスできるよう、EU各国の法制度や技術規格が統一化されたデジタル経済圏を指すデジタル政策である[104]:1。
AI法の審議過程は、欧州連合の通常立法手続を踏んでいる[3]。すなわち、行政機関の欧州委員会 (Commission) が法案を提出し、立法機関の欧州議会 (Parliament) と欧州連合理事会 (Council) がそれぞれで共同採択されて初めて成立する[26]。以下のとおり審議中に複数回、原案への修正意見が提出されているため[28]、メディア報道や学術文献によっては執筆当時の古い条文を基に論評・解説している可能性があり、注意が必要である。
- 2021年4月22日 - EUの行政機関である欧州委員会が法案を提出[3][26]
- 2021年11月29日 - ソーシャルスコアリング、生体認証、および高リスクAI全般に関する大幅修正案を欧州連合理事会が提出[28]
- 2022年2月3日 - 高リスクAIシステムに対する義務、および透明性の義務に関する修正[28]
- 2022年3月2日 - 欧州議会の法務委員会 (JURI) による149頁にわたる修正意見書の提出[28]
- 2022年3月3日 - 欧州議会の産業・研究・エネルギー委員会 (ITRE) による67頁にわたる修正意見書の提出[28]
- 2022年4月20日 - 欧州議会の域内市場・消費者保護委員会 (IMCO) と市民の自由・司法・内務委員会 (LIBE) による161頁にわたる共同修正意見書提出[28]
- 2022年5月13日 - 汎用AIモデル (GPAI) に関する追加規定案を欧州連合理事会が提出[28]
- 2022年6月1日 - 欧州議会の各委員会などが数千箇所におよぶ修正案を提出[28]
- 2022年6月15日 - 欧州連合理事会が136頁にわたる最終修正案を提出[28]
- 2022年12月6日 - 欧州連合理事会が修正案を採択し[26][注 14]、欧州議会との交渉合意決議 (英: position[注 15]) を可決[28]
- 2023年6月14日 - 欧州議会が賛成499票、反対28票、棄権93票で修正案を採択し[3][28][26][注 16]、欧州連合理事会との交渉合意決議を可決[28]
- 2023年12月9日 - 両立法府による共同採択の迅速化を目的とする「三者対話」(英: trilogue、トリローグ) の場が設けられて、欧州委員会、欧州議会、欧州連合理事会のそれぞれから成る代表者によって交渉が行われ[106]、修正案が合意[26][28][注 11]
- 2024年3月13日 - 欧州議会で三者対話の修正案が審議され、賛成523票、反対46票、棄権49票で可決[3][2]
- 2024年5月21日 - 欧州連合理事会で三者対話の修正案が審議され、賛成27票の満場一致で可決[3][4]:2
- 2024年6月13日 - 欧州議会議長および欧州連合理事会議長が署名し、AI法が成立[3][26]。
- 2024年7月12日 - EU官報上で公布 (EU官報番号: L, 2024/1689)[3][1]。
段階適用
第113条の規定に基づき、AI法は以下のとおり段階的に適用が開始されるが[27][1]、発効から2年後の2026年8月2日が「本格適用」と位置づけられている[5]。
- 2024年8月1日 - AI法が発効[1][26]
- 2025年2月2日 - 第1章および第2章 (第1条から第5条) が適用開始し、(1) 許容されないリスクのあるAIが全面禁止[1][27]
- 2025年8月2日 - 第3章のセクション4 (第28条から第39条; 適合性評価機関)、第5章すべて (第51条から第56条; 汎用AIモデル)、第7章すべて (第64条から第70条; ガバナンス)、第9章の第78条のみ (規制当局の守秘義務)、第12章 (第99条から第100条; 罰則のうち汎用AIモデルを対象とした第101条のみ除外)[1][27]
- 2026年8月2日 - 第6条第1項を除く全条項が適用開始[1][27]
- 2027年8月2日 - 第6条第1項 (高リスクAIシステムのうち、他EU法令と多重規制となるものに対する規制) が適用開始[1][27]
評価・分析
上述のとおり、仮に日本や米国などのEU域外で設立された団体や他国民であっても、EU域内にAIを導入したり、AIを稼働・提供したりする場合はAI法の規制対象となる (いわゆるEU域外適用)[19]。特に生成AI (つまり汎用AIモデル) にとってはAI法が厳しすぎるとの声も挙がっている[108]:11。
AI法発効以前でも既に、個人データ保護を規定するEU一般データ保護規則 (GDPR) などが求める保護水準を遵守するのが困難との理由から、一部AIがEU市場へのサービス提供を断念する、あるいは機能を制限する対応をとっている[108]:11。たとえば米国Meta社 (旧Facebook社) は開発中のマルチモーダルAI (Multimodal AI) をEU市場向けに提供しない方針を2024年7月 (AI法の発効前月) に明かしている[109][110]。マルチモーダル (Modalは様式・手法の意) とはテキスト、音声、画像、動画といったデータの種類を複数統合して処理するため、単一モーダルと比較してより複雑な処理が可能とされる{[111]。Meta社には既に単一モーダルAIの「Llama 3」があるが、マルチモーダルAIにはより多くの学習データ収集が必要とされるため、GDPRなどの規制下では十分なデータ取得が困難と判断したためである[109]。Appleも同様に、プライバシー保護やデータセキュリティ上の懸念から、同社AIの一部機能をEU市場向けに提供しない旨がAI法発効2か月前に発表されている[109]。
AI法はGDPRなどの既存法の遵守も同時に求めていることから[108]:10、EU域外の事業者にとってはEUへの展開の障壁となりうるとの指摘もある[108]:11。
違反・訴訟事例
日本語ではAI「法」と呼称されることも多いが[12][7]、EU法における法体系上は「規則」(英: Regulation) に分類される[1]。(AI法に限らず)「EU規則」はEU加盟国の個人や企業・団体などを直接拘束するほか[112]、違反時には欧州司法裁判所 (CJEU) などのEU各裁判所への提訴対象となる[113]:190–191。
- クネシュケ対LAION事件
- 当事件は世界初の本格的なAI訴訟判決と言われ、欧州だけでなく世界的にも注目されている[114][115][116]。写真画像が無断でAI学習データとして収集 (スクレイピング) されたことから、著作権侵害が問われた事件である[114][115][117]。汎用AIモデルはDSM著作権指令で定められたオプトアウト (著作物の権利者が無断収集を拒否する権利) の尊重が求められ、その遵守にあたってはAI法 第53条第1項(c)号で「最先端の技術を用いるなどの手段」を用いると規定されている[115]。写真掲載サイトの一般的な利用規約で表示されているオプトアウトの意思表明は、AIが「最先端の技術」をもって読み取り、収集対象から除外すべきものだったのか、その文言解釈も問われることとなった[114][115][117]。2024年9月に原告敗訴の判決が一審のドイツ・ハンブルク地方裁判所で下されているが[114][115][117]、2024年11月時点で控訴中であり[118]、欧州司法裁判所への付託の可能性が専門家から言及されている[115][注 17]。
関連項目
- 人工知能の倫理
- 人工知能の規制 - EU以外の各国の規制状況も記述
- アルゴリズムバイアス
- デジタル・プラットフォーマー#法制度 - AIを含むデジタル・プラットフォームサービスに対する各国の規制状況
脚注
注釈
- ^ 他にはAI Act[7]や略称のAIA[7]、AI規制法[8][9]、欧州人工知能法[10]、EU人工知能法[11]の呼称が日本語文献で用いられており、訳語の統一性はない。
- ^ 「包括的」なAI規制としてはAI法が世界初だが[12]、個別トピックに応じたAI規制を複数導入している国の例としては中国が挙げられる。中国ではAIのアルゴリズムに関する規制だけでも「インターネット情報サービスアルゴリズム・レコメンデーション管理規定」、「インターネット情報サービス深度合成アルゴリズム管理規定」、生成AIに特化した「生成人工知能サービス管理暫行弁法」と少なくとも3つの規制法が並存する[13]。
- ^ 時系列の主な適用条項をまとめると、2025年2月2日より (1) 許容されないリスクのあるAIが全面禁止。2025年8月2日より汎用AIモデルの義務履行、汎用AIモデル以外に対する罰則規定が適用開始。2026年8月2日より第6条第1項以外の全条項が適用され、「本格適用」の位置づけ。2027年8月2日より残った第6条第1項の高リスクAIシステムのうち、他EU法令と多重規制となるものに対する規制が適用開始[27][1]。
- ^ 立法府の欧州議会によるこのような分類方法は、行政府である欧州委員会が2021年に公表した論考で用いられたものを踏襲している[33][17]。
- ^ 「サブリミナル」の定義について、前文 (29) の英語原文は"...subliminal components such as audio, image, video stimuli that persons cannot perceive, as those stimuli are beyond human perception, or other manipulative or deceptive techniques that subvert or impair person’s autonomy, decision-making or free choice in ways that people are not consciously aware of those techniques or, where they are aware of them..." と記述している。
- ^ AI法の前文 (31) はソーシャルスコアリングの項であり、ソーシャルスコアリングが差別や不公平・不正義をもたらしうるとして、規制の背景を述べている[44]。
- ^ あくまで警察などの法執行機関がこのような状況下で用いる場合のみ、AI法の禁止除外に指定されている。法執行機関以外のRBIは禁止されており、AI法以前から運用されている2016年のEU一般データ保護規則 (GDPR) 第9条の規定と矛盾するものではない[45]。
- ^ Annex I Section Aで12本が列記されている。法令番号の頭4桁は法令の成立西暦年を意味する。1. 機械指令 Directive 2006/42/EC、2. 玩具の安全性指令 Directive 2009/48/EC、3. レジャー用・個人用船舶指令 Directive 2013/53/EU、4. エレベーター及びその部品に関する指令 Directive 2014/33/EU、5. 爆発性環境下での保護システムに関する指令 Directive 2014/34/EU、6. 無線機器指令 Directive 2014/53/EU、7. 圧力機器指令 Directive 2014/68/EU、8. ロープウェイ設備規則 Regulation (EU) 2016/424、9. 個人用保護器具規則 Regulation (EU) 2016/425、10. ガス燃料機器規則 Regulation (EU) 2016/426、11. 医療機器規則 Regulation (EU) 2017/745、12. 体外診断用医療機器規則 Regulation (EU) 2017/746[56][55]。
- ^ Annex I Section Bで8本が列記されている。Section Aの12本から引き続き、連番を振る。13. 民間航空の安全性に関する規則 Regulation (EU) No 300/2008、14. 二輪、三輪及び四輪車両に関する規則 Regulation (EU) No 168/2013、15. 農林業用車両に関する規則 Regulation (EU) No 167/2013、16. 船舶用機器に関する指令 Directive 2014/90/EU、17. 鉄道網の相互運用性に関する指令 Directive (EU) 2016/797、18. 自動車及びその部品に関する規則 Regulation (EU) 2018/858、19. 自動車の型式承認に関する規則 Regulation (EU) 2019/2144、20. 民間航空分野の共通ルールに関する規則 Regulation (EU) 2018/1139[55][16]。
- ^ AI法は、立法府である欧州議会と欧州連合理事会の共同採択による通常立法手続を経て制定されている[1]。このようなEUの法令を「派生法」と呼ぶ。派生法を実施するために採択される施行法を「委任法令」、その手続を「委任立法」と呼ぶ。行政府である欧州委員会が委任立法の権限を有している[57]。
- ^ a b 2023年12月9日の三者対話の合意ののち部分修正が加えられ、2024年2月2日に三者対話の最終修正案が公表されている[65][66]。
- ^ Regulation (EU) No 182/2011は明治大学法学部 夏井高人教授の日本語参考訳も参照のこと。
- ^ 第102条から第110条に列記されているのは順に、空港や航空機の警備に関する規則 Regulation (EC) No 300/2008、農林業用車両に関する規則 Regulation (EU) No 167/2013、二輪車・三輪車・人力の四輪自転車に関する規則 Regulation (EU) No 168/2013、船用機器指令 Directive 2014/90/EU、鉄道システムのEU域内互換性に関する指令 Directive (EU) 2016/797、自動車などの型式認証に関する規則 Regulation (EU) 2018/858、欧州航空安全機関の設立などを定めた規則 Regulation (EU) 2018/1139、自動車などの型式認証に関する部分改正規則 Regulation (EU) 2019/2144、消費者団体訴訟指令 Directive (EU) 2020/1828である。これらの規則・指令がAI法により部分改正された。
- ^ 欧州連合理事会の法案可決には特定多数が必要である。欧州連合理事会には、加盟国からそれぞれ代表を送る仕組みとなっており、加盟国数の55%以上かつ加盟国全人口の65%以上からの支持を特定多数と呼ぶ。このように単純国数だけでなく、人口比率も加味した方式を「二重多数決制」と呼ぶ[105]。
- ^ 欧州連合におけるpositionの可決は「立場」と訳されることもある[106]。
- ^ 欧州議会の法案可決には単純過半数が必要である。欧州議会は加盟国の人口に比例して国別の議席数が割り振られ、EU市民の直接選挙によって議員が選出されている。多くの議員は国を超えた特定の政党に所属している[107]。
- ^ EU加盟国内の裁判所で、EU法令などの解釈や効力について争点となった場合、いったん国内の訴訟は中断して欧州司法裁判所 (CJEU) などのEU裁判所に判断を付託することができる。この手続を「先決裁定」(英: preliminary ruling procedure) と呼ぶ[119][113]:193。
出典
- ^ a b c d e f g h i j k l m n o p 欧州委員会および欧州連合理事会 (2024年6月13日). “Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance)” (英語). EUR-Lex. 2024年11月11日閲覧。
- ^ a b c “Artificial Intelligence Act: MEPs adopt landmark law” [AI法: 欧州議会で画期的な法律が可決] (英語). Official Press Release (公式発表). 欧州議会 (2024年3月13日). 2024年11月11日閲覧。 “with 523 votes in favour, 46 against and 49 abstentions (賛成523票、反対46票、棄権49票)”
- ^ a b c d e f g h i j k l 欧州委員会および欧州連合理事会. “Procedure 2021/0106/COD | COM (2021) 206: Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS” [AI法の通常立法手続 (審理手続番号: 2021/0106/COD)] (英語). EUR-Lex. 2024年11月11日閲覧。
- ^ a b Voting result | REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) [AI法の投票結果] (PDF) (Report) (英語). 欧州連合理事会. 22 May 2024.
- ^ a b c EU日本政府代表部 2024, p. 1.
- ^ IISE 2024, p. 1.
- ^ a b c “EU AI Act – EUの包括的AI規制の概説と企業の対応”. デロイト トウシュ トーマツ. 2024年11月11日閲覧。 “本記事は2024年4月16日に欧州議会から公開されたAI Actの最新版を踏まえて作成”
- ^ 三部裕幸 (弁護士)『EUのAI規制法案の概要』(PDF)(レポート)総務省〈総務省 AIネットワーク社会推進会議 AIガバナンス検討会「諸外国におけるAI規制の動向に関する調査研究」〉、2022年 。
- ^ “EUのAI規制法~その影響と対策のポイントは” (英語). KPMG (2024年5月27日). 2024年11月11日閲覧。
- ^ 研究開発戦略センター デイリーウォッチャー編集局 (2024年8月28日). “欧州人工知能法が発効”. 国立研究開発法人 科学技術振興機構 研究開発戦略センター (CRDS). 2024年11月11日閲覧。
- ^ EUJC 2024, p. 1.
- ^ a b c 情報通信白書 2024, pp. 52, 59.
- ^ “生成AIを巡る米欧中の規制動向最前線 | 中国におけるAI関連規制”. PricewaterhouseCoopers. 2024年11月30日時点のオリジナルよりアーカイブ。2024年11月30日閲覧。
- ^ a b c 情報通信白書 2024, p. 59.
- ^ a b EU日本政府代表部 2024, pp. 1, 40.
- ^ a b c d e f g h i j k l EU日本政府代表部 2024, p. 4.
- ^ a b c d e f g h 欧州議会 GPAI 2023, p. 1.
- ^ a b c d 欧州議会 GPAI 2023, p. 2.
- ^ a b EU日本政府代表部 2024, p. 3.
- ^ a b c d e EU日本政府代表部 2024, p. 41.
- ^ a b c d e IISE 2024, p. 39.
- ^ a b c d EU日本政府代表部 2024, p. 31.
- ^ a b c d IISE 2024, p. 34.
- ^ a b IISE 2024, p. 27.
- ^ a b EU日本政府代表部 2024, p. 36.
- ^ a b c d e f g h EU日本政府代表部 2024, p. 2.
- ^ a b c d e f g EU日本政府代表部 2024, p. 42.
- ^ a b c d e f g h i j k l m n o p “Historic Timeline” [時系列情報] (英語). EU Artificial Intelligence Act. The Future of Life Institute (非営利研究機関). 2024年11月11日閲覧。
- ^ a b c d e IISE 2024, p. 8.
- ^ a b EUJC 2024, p. 2.
- ^ a b c d EU日本政府代表部 2024, p. 6.
- ^ a b c d IISE 2024, p. 3.
- ^ a b JRC 2021, p. 11.
- ^ a b c d e EU日本政府代表部 2024, p. 5.
- ^ IISE 2024, p. 13.
- ^ IISE 2024, pp. 13–14.
- ^ IISE 2024, pp. 12–14.
- ^ EU日本政府代表部 2024, pp. 8–9.
- ^ a b c d e f IISE 2024, p. 12.
- ^ IISE 2024, pp. 12–13.
- ^ a b c d e f EU日本政府代表部 2024, p. 8.
- ^ a b c d e f Rossberg, Nicola (School of Computer Science & IT, University College Cork); Visentin, Andrea (School of Computer Science & IT, University College Cork). "AI for social scoring" [ソーシャルスコアリングを用いるAI]. The TAILOR Handbook of Trustworthy AI (partially supported by TAILOR, a project funded by EU Horizon 2020 research and innovation programme) (英語). 2024年11月19日閲覧。
- ^ “EU AI Act: first regulation on artificial intelligence” (英語). European Parliament News. オリジナルの10 January 2024時点におけるアーカイブ。 2024年1月6日閲覧。
- ^ “Recital 31 AI systems for social scoring” [前文 31: ソーシャルスコアリングを用いたAIシステム] (英語). AI法前文の項目別抜粋ページ. Intersoft Consulting. 2024年11月19日閲覧。
- ^ a b IISE 2024, p. 14.
- ^ Leiser 2024, p. 6.
- ^ a b Leiser 2024, p. 7.
- ^ a b Leiser 2024, p. 8.
- ^ a b c d Leiser 2024, p. 9.
- ^ Leiser 2024, pp. 13–14.
- ^ Leiser 2024, p. 11.
- ^ Leiser 2024, p. 12.
- ^ a b 情報通信白書 2023, pp. 19–20.
- ^ 松澤登 (ニッセイ基礎研究所 保険研究部 専務取締役 研究理事 兼 ヘルスケアリサーチセンター長) (2022年12月21日). “デジタルプラットフォーム透明化法-透明化法はデジタル市場法になりえるのか?”. ニッセイ基礎研究所. 2024年11月21日時点のオリジナルよりアーカイブ。2024年11月19日閲覧。
- ^ a b c d e IISE 2024, p. 15.
- ^ a b EU日本政府代表部 2024, p. 10.
- ^ 濵本正太郎 (京都大学法学研究科国際機構法教授)『第2回 EUの機構的構造・立法過程・EUと構成国との権限配分』(PDF)(レポート)京都大学〈京都大学法科大学院・公共政策大学院 2016年度後期 EU法 第2回予習資料〉、2016年、6頁 。
- ^ EU日本政府代表部 2024, pp. 15–18.
- ^ a b c EU日本政府代表部 2024, pp. 13–14.
- ^ a b c d EU日本政府代表部 2024, p. 19.
- ^ EU日本政府代表部 2024, pp. 13–14, 26–27.
- ^ EU日本政府代表部 2024, p. 20.
- ^ EU日本政府代表部 2024, p. 21.
- ^ EU日本政府代表部 2024, p. 14.
- ^ a b “Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world” [AI法: 欧州連合理事会と欧州議会が世界初のAI関連法で合意] (英語). 欧州連合理事会 (2023年12月9日). 2024年11月19日閲覧。
- ^ a b 欧州連合理事会および欧州議会 (2 February 2024). Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS [AI法案] (PDF) (Report) (英語). 欧州連合理事会.
- ^ EU日本政府代表部 2024, p. 27.
- ^ a b IISE 2024, p. 29.
- ^ EU日本政府代表部 2024, p. 26.
- ^ EU日本政府代表部 2024, pp. 26–27.
- ^ a b c EU日本政府代表部 2024, p. 29.
- ^ a b c d IISE 2024, p. 31.
- ^ a b c EUJC 2024, p. 6.
- ^ EU日本政府代表部 2024, p. 28.
- ^ IISE 2024, p. 30.
- ^ EU日本政府代表部 2024, p. 30.
- ^ a b IISE 2024, p. 32.
- ^ a b c IISE 2024, p. 9.
- ^ a b c d e f g IISE 2024, p. 10.
- ^ EU日本政府代表部 2024, pp. 14, 28.
- ^ EU日本政府代表部 2024, p. 7.
- ^ a b IISE 2024, p. 11.
- ^ IISE 2024, p. 21.
- ^ EU日本政府代表部 2024, pp. 23–24.
- ^ IISE 2024, pp. 24–25.
- ^ a b EU日本政府代表部 2024, p. 13.
- ^ EU日本政府代表部 2024, p. 22.
- ^ EU日本政府代表部 2024, p. 23.
- ^ a b IISE 2024, p. 28.
- ^ IISE 2024, p. 26.
- ^ “CEマーキングの概要:EU”. JETRO (2024年9月). 2024年11月23日時点のオリジナルよりアーカイブ。2024年11月19日閲覧。
- ^ “First Draft of the General-Purpose AI Code of Practice published, written by independent experts” [第三者専門家による汎用AIモデル向け実践規範の草案初版が公表] (英語). Shaping Europe’s digital future. 欧州委員会 (2024年11月14日). 2024年11月19日閲覧。
- ^ First Draft General-Purpose AI Code of Practice [汎用AIモデル向け実践規範の草案初版] (PDF) (Report) (英語). 欧州委員会. 14 November 2024.
- ^ IISE 2024, p. 35.
- ^ 宍戸常寿 (東京大学大学院 法学政治学研究科 教授); 谷脇康彦 (デジタル政策フォーラム 代表幹事)『【特集 デジタルガバナンスの未来】1 データ駆動社会におけるガバナンス機構』(PDF)(レポート)デジタル政策フォーラム〈デジタル政策の論点 2024〉 。
- ^ 総務省; 経済産業省 (2024). Outline of the draft "AI Guidelines for Business" [事業向けAIガイドライン草案の概要 仮訳] (PDF) (Report) (英語). 経済産業省. p. 6.
- ^ “広島AIプロセス 成果文書” (英語). 総務省. 2024年11月24日時点のオリジナルよりアーカイブ。2024年11月24日閲覧。
- ^ 『高度なAIシステムを開発する組織向けの広島プロセス国際行動規範 (仮訳)』(PDF)(レポート)総務省 。
- ^ IISE 2024, p. 41.
- ^ EU日本政府代表部 2024, p. 40.
- ^ Martinello, Barbara. “The ubiquitous digital single market” [誰もがどこからでもアクセスできるデジタル単一市場] (英語). 欧州議会. 2024年11月11日閲覧。
- ^ “Profile: EU's Jean-Claude Juncker” [ジャン=クロード・ユンケルの略歴] (英語). BBC (2014年7月15日). 2018年11月1日時点のオリジナルよりアーカイブ。2024年11月11日閲覧。
- ^ JETRO ブリュッセル事務所海外調査部『EUデジタル政策の最新概要』(PDF)(レポート)JETRO、2021年10月、2頁 。
- ^ “デジタル単一市場の構築―次代を切り開くEUの成長戦略” (英語). Europe Magazine (駐日欧州連合代表部の公式ウェブマガジン). 駐日欧州連合代表部 (2015年6月29日). 2024年11月11日閲覧。
- ^ 庄司 2015, pp. 260–261.
- ^ a b 庄司 2015, pp. 274–278.
- ^ 庄司 2015, pp. 261–264.
- ^ a b c d 柏木亮二 (野村総合研究所 IT事業戦略分析 エキスパート研究員)『AIイノベーション 日本型生成AI規制の可能性』(PDF)(レポート)野村総合研究所、2024年9月、10–11頁 。
- ^ a b c 田口和裕 (2024年7月19日). “AI大手、規制警戒で“EU離れ” メタもマルチモーダルAI提供見送りへ”. ASCII x AI. 角川アスキー総合研究所. 2024年9月26日時点のオリジナルよりアーカイブ。2024年11月19日閲覧。
- ^ Fried, Ina (2024年7月17日). “Scoop: Meta won't offer future multimodal AI models in EU” [スクープ: Meta社はマルチもダルAIモデルをEUに提供しない方針] (英語). Axios Media. 2024年11月18日時点のオリジナルよりアーカイブ。2024年11月19日閲覧。
- ^ “マルチモーダルAI”. AI用語解説. ソフトバンク. 2024年10月8日時点のオリジナルよりアーカイブ。2024年11月19日閲覧。
- ^ 庄司 2015, pp. 4–6.
- ^ a b 佐藤智恵 (明治大学准教授)「EU法の一般原則の特徴と意義」『国際法外交雑誌』第16巻第2号、一般財団法人 国際法学会、2017年、189–210、doi:10.60340/kokusaihogaikozasshi.116.2_189。
- ^ a b c d 野口ケルビン (米国特許弁護士) (2024年11月1日). “AIトレーニングデータは著作権保護対象外?:ドイツにおける初の判決が示唆するポストAIの世界とアメリカとの違い”. Open Legal Community (知財メディアサイト). 2024年11月9日閲覧。
- ^ a b c d e f Ehle, Kristina (弁護士事務所パートナー); Tüzün, Yeşim (弁護士事務所アソシエート). "To Scrape or Not to Scrape? First Court Decision on the EU Copyright Exception for Text and Data Mining in Germany" [データ収集すべきか否か? ドイツでテキストおよびデータマイニング (TDM) に関するEU著作権例外規定の初判決] (英語). Morrison & Foerster LLP. (法律事務所). 2024年11月9日閲覧。
- ^ Kalhor-Witzel, Ronak (知的財産法専門弁護士) (2024年10月24日). “A landmark copyright case with implications for AI and text and data mining: Kneschke v. LAION” [人工知能とテキスト・データマイニングの解釈に関する著作権侵害訴訟の重要判決: クネシュケ対LAION] (英語). Trademark Lawyer Magazine. CTC International Media Limited. 2024年11月9日閲覧。
- ^ a b c “2024 WIPO IP Judges Forum Informal Case Summary – Hamburg Regional Court, Germany [2024: Robert Kneschke v. LAION e.V., Case No. 310 O 227/23]” [2024年 WIPO 知的財産法フォーラム用非公式判例要約 - 2024年ドイツ・ハンブルク地裁: ロベルト・クネシュケ対LAION (事件番号: 310 O 227/23)] (英語). WIPO. 2024年11月9日閲覧。
- ^ Kneschke, Robert (2024年11月5日). “Künstliche Intelligenz, Rechtliches | Berufung eingelegt bei meiner Klage gegen LAION e.V.” [人工知能、法務 | 私が提起した対LAION訴訟で控訴しました] (ドイツ語). Alltag eines Fotoproduzenten (訳: 写真家としての日々). 2024年11月9日閲覧。 “Vor einigen Tagen habe ich Berufung eingelegt in meiner Klage wegen Urheberrechtsverletzung gegen den Verein LAION e.V. (訳: 数日前、LAIONを相手取った著作権侵害訴訟で控訴しました。)”
- ^ 中村民雄 (2018年6月19日). “EUの裁判所”. 小学館 日本大百科全書(ニッポニカ). コトバンク. 2024年11月9日閲覧。 “(1)先決裁定手続preliminary ruling procedure...”
参考文献
- 欧州連合日本政府代表部『EU AI規則の概要』(PDF)(レポート)欧州連合〈英語公式条文の翻訳〉、2024年 。
- 小泉雄介『EUのAI法(AI規則)の概要』(PDF)(レポート)国際社会経済研究所 (IISE)、2024年7月12日 。
- 庄司克宏『はじめてのEU法』有斐閣、2015年12月。ISBN 978-4-641-04816-4 。
- 総務省『令和5年版 情報通信白書 PDF全体版』(レポート)総務省、2023年 。
- 総務省『令和6年版 情報通信白書 PDF全体版』(レポート)総務省、2024年 。
- 『EU 人工知能法 (AI Act)- 採択・最終決定』(レポート)一般財団法人 日欧産業協力センター (EUJC)〈欧州デジタル政策 EU Policy Insights Vol.10〉、2024年 。
- European Parliament (2023). AT A GLANCE | Digital issues in focus | General-purpose artificial intelligence [概説 | デジタル関連の要検討課題 | 汎用目的AI] (PDF) (Report) (英語). 欧州議会.
- Leiser, Mark (アムステルダム自由大学 法・情報学研究所) (2024). “Psychological Patterns and Article 5 of the AI Act :AI-Powered Deceptive Design in the System Architecture and the User Interface [心理パターンとAI法 第5条: システム・アーキテクチャーおよびユーザー・インターフェースにおける欺瞞的なAIデザイン]” (英語) (PDF). Journal of AI law and Regulation (Vrije Universiteit Amsterdam): 5–23 .
- Samoili, Sofia; Lopez Cobo, Montserrat; Delipetrev, Blagoj; Martinez-Plumed, Fernando; Gomez Gutierrez, Emilia; De Prato, Giuditta (29 October 2021). AI Watch. Defining Artificial Intelligence 2.0 [AI動向 - 人工知能2.0時代を定義] (Report). JRC126426 (works under the European Commission's Joint Research Centre) (英語). Publications Office of the European Union. doi:10.2760/019901. ISBN 978-92-76-42648-6。
外部リンク
- 欧州委員会 AIオフィス公式ページ (英語) - AI法関連の最新文書などのリンク多数
- 欧州議会による公式解説日本語訳 - 欧州議会の説明資料の2024年6月18日最終更新版ベースの翻訳のため、可決後の内容を反映済。
- AI法案の日本語仮訳 - 2022年7月時点の「法案」ベースのため、可決発効された最終版と大きく異なる点に留意。総務省「AIネットワーク社会推進会議」審議資料の一環で作成 (背景説明)
- AI法の前文条項別ページ (英語) - 180の前文 (Recital) を条項ごとにページ分割して検索・閲覧できるサイト
- 広島AIプロセス (日本語) - 2023年広島開催のG7議論に基づき発足した、AIガバナンスの国際連携枠組
- AI権利章典ブループリント (英語) - アメリカ合衆国科学技術政策局 (OSTP) 作成、2022年10月公表。法的拘束力はない。原題: "Blueprint for an AI Bill of Rights"
- AI権利章典ブループリント概要まとめ (日本語) - OSTP公表原文のうち要点を5つにまとめた資料。日本の内閣府 科学技術・イノベーション推進事務局が2022年12月公表。