ロボット: まるちゃんの情報セキュリティ気まぐれ日記

ロボット

2025.02.16

米国 NIST IR 8356 デジタルツイン技術におけるセキュリティと信頼の考慮点 (2025.02.14)

こんにちは、丸山満彦です。

NISTが、IR 8356 デジタルツイン技術におけるセキュリティと信頼の考慮点を公表していますね...

2021年の4月にドラフトがでたものが、ほぼ4年たって確定した感じです。当時は画期的であったかもしれませんが、実装も進みつつ有り?、少し落ち着いた感じですかね...

 

NIST - ITL

・2025.02.14 NIST IR 8356 Security and Trust Considerations for Digital Twin Technology

NIST IR 8356 Security and Trust Considerations for Digital Twin Technology NIST IR 8356 デジタルツイン技術におけるセキュリティと信頼の考慮点
Abstract 概要
Digital twin technology enables the creation of electronic representations of real-world entities and the ability to view the states and transitions between states of these entities. This report discusses the concept and purpose of digital twin technology and describes its characteristics, features, functions, and expected operational uses. This report also discusses both traditional and novel cybersecurity challenges presented by digital twin technology as well as trust considerations in the context of existing NIST guidance and documents. デジタルツイン技術は、実世界の事業体を電子的に表現し、その状態や状態間の遷移を見ることができる。本レポートでは、デジタルツイン技術の概念と目的について述べ、その特徴、機能、期待される運用方法について説明する。また本報告書では、デジタルツイン技術によってもたらされる従来のサイバーセキュリティの課題と新たなサイバーセキュリティの課題、さらに既存の NIST ガイダンスや文書との関連における信頼性の検討についても議論する。

 

・[PDF] NIST.IR.8356

20250216-42643

・[DOCX][PDF] 仮訳

 

目次...

1. Introduction 1. 序文
2. Definitions of Digital Twins 2. デジタルツインの定義
3. Motivation and Vision 3. モチベーションとビジョン
3.1. Advantages of Digital Twin Technology 3.1. デジタルツイン技術の利点
3.2. Expectation of Standards 3.2. 標準への期待
3.3. Supportive Technologies 3.3. 支援技術
4. Operations on Digital Twins 4. デジタルツインの操作
4.1. Digital Twins Definitions and the Creation of Digital Twin Instances 4.1. デジタルツインの定義とデジタルツイン・インスタンスの作成
4.2. Manipulation and Modification of Digital Twin Definitions and Instances 4.2. デジタルツインの定義とインスタンスの操作と変更
4.3. Exchange of Digital Twin Definitions and Instances 4.3. デジタルツインの定義とインスタンスを交換する
5. Usage Scenarios for Digital Twins 5. デジタルツインの利用シーン
5.1. Viewing Static Models of Digital Twins 5.1. デジタルツインの静的モデルを見る
5.2. Executing and Viewing Dynamic Models of Digital Twins 5.2. デジタルツインの動的モデルの実行と表示
5.3. Real-Time Monitoring of Real-World Entities 5.3. 実世界事業体のリアルタイム・モニタリング
5.4. Real-Time Command and Control of Real-World Entities 5.4. 実世界事業体のリアルタイム・コマンド&コントロール
6. Highlighted Use Cases 6. 注目の使用例
7. Cybersecurity Considerations 7. サイバーセキュリティの考慮
7.1. Novel Cybersecurity Challenges 7.1. サイバーセキュリティの新たな課題
7.1.1. Massive Instrumentation of Objects 7.1.1. 物体の大量計測
7.1.2. Centralization of Object Measurements 7.1.2. 物体測定の集中化
7.1.3. Visualization and Representation of Object Operation 7.1.3. オブジェクト操作の可視化と表現
7.1.4. Remote Control of Objects 7.1.4. 物体の遠隔操作
7.1.5. Standards for Digital Twin Definitions That Allow for Universal Access and Control 7.1.5. 普遍的なアクセスと管理を可能にするデジタルツイン定義の標準化
7.2. Traditional Cybersecurity Challenges and Tools 7.2. 従来のサイバーセキュリティの課題とツール
8. Trust Considerations 8. 信頼の考慮
9. Conclusions 9. 結論
References 参考文献
Appendix A. List of Symbols, Abbreviations, and Acronyms 附属書 A.記号、略語、頭字語のリスト
Appendix B. Glossary 附属書 B.用語集

 

 

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2021.04.18 NISTIR 8356 (Draft) デジタルツイン技術と新しい標準に関する考慮事項

 

 

| | Comments (0)

2025.02.15

欧州委員会 人工知能と仕事の未来 (2025.02.13)

こんにちは、丸山満彦です。

欧州連合から、人工知能と仕事の未来についての報告書が公表されていますね...

多くの欧州人は職場においてAIやロボットを受け入れ、生産性を向上させると信じている感じですね... 国による多少のばらつきはあるものの...

プラスと考えている人の傾向としては、若い人、教育レベルが高い人、経済的な困難がない人、職についている人という特性があるようですね...

ただ、ほぼ全ての人がプライバシーや透明性への配慮は必要と考えているよです...

 

European Commission

プレス...

・2025.02.13 Commission survey shows that most Europeans support use of artificial intelligence in the workplace

Commission survey shows that most Europeans support use of artificial intelligence in the workplace 欧州委員会の調査によると、欧州人の大半が職場での人工知能の利用を支持している
Most people in Europe think that digital technologies, including artificial intelligence (AI), have a positive impact on their jobs, the economy, society, and on quality of life. This is what reveals a new Eurobarometer survey, published on 13 February 2025. 欧州のほとんどの人々は、人工知能(AI)を含むデジタル技術が、自分たちの仕事、経済、社会、そして生活の質にプラスの影響を及ぼすと考えている。これは、2025年2月13日に発表されたユーロバロメーターの新しい調査結果である。
More than 60% of Europeans positively view robots and AI at work and over 70% believe they improve productivity. While a majority supports using robots and AI to make decisions at work, 84% of Europeans think that AI requires careful management to protect privacy and ensure transparency in the workplace. ヨーロッパ人の60%以上が、仕事におけるロボットやAIを肯定的にとらえ、70%以上が生産性を改善すると考えている。過半数が職場での意思決定にロボットやAIを使用することを支持しているが、84%の欧州人は、AIにはプライバシーの保護や職場の透明性を確保するための慎重な管理が必要だと考えている。
Executive Vice-President for Social Rights and Skills, Quality Jobs and Preparedness, Roxana Mînzatu, said: ロクサーナ・ミンザツ副社長(社会的権利・技能・質の高い仕事・準備担当)は、次のように述べた:
“Artificial intelligence is becoming an integral part of modern workplaces. We must use it in a way that both helps workers and protects them. We have a strong basis of rules, with our GDPR, the AI Act, and the Directive on platform work. We will look at how these rules are applied to address the impact of AI throughout the wider labour market.” 「人工知能は現代の職場に不可欠なものとなりつつある。私たちは、労働者を助け、労働者を保護する方法で人工知能を利用しなければならない。GDPR、AI法、プラットフォームワークに関する指令など、我々には強力なルールの基礎がある。我々は、より広い労働市場全体でAIの影響に対処するために、これらのルールがどのように適用されるかを検討する。
The results of the survey align with one of the key objectives of the EU's Competitiveness Compass, to integrate digital technologies and AI into workplaces to boost innovation and productivity. The EU has allocated €2 billion from the European Social Fund Plus (ESF+) and €23 billion from the Recovery and Resilience Fund (RRF) to Member States to support the development of digital skills. The Digital Europe Programme has also invested €580 million to advance digital skills between 2021-2027. この調査結果は、EUのCompetitiveness Compassの主要目標のひとつである、イノベーションと生産性を高めるためにデジタル技術とAIを職場に統合することと一致している。EUは、欧州社会基金プラス(ESF+)から20億ユーロ、回復・レジリエンス基金(RRF)から230億ユーロを加盟国に割り当て、デジタルスキルの開発を支援している。また、デジタル・ヨーロッパ・プログラムは、2021年から2027年にかけて、デジタル・スキルを向上させるために5億8,000万ユーロを投資した。
More information on the Eurobarometer on Artificial Intelligence and the future of work. 人工知能と仕事の未来に関するユーロバロメーターに関する詳細はこちら。

 

報告...

Artificial Intelligence and the future of work

 

最初にインフォグラフィックス...

・[PDF] Infographics

1_20250215055401

 

Artificial Intelligence and the future of work 人工知能と仕事の未来
Abstract 概要
Most people in Europe believe that digital technologies, including artificial intelligence, have a positive impact on their jobs, the economy, society, and on quality of life. 62% of Europeans view robots and AI positively at work and 70% believe it improves productivity. While a majority supports using robots and AI to make decisions at work, 84% of Europeans think that AI requires careful management to protect privacy and ensure transparency in the workplace. ヨーロッパのほとんどの人々は、人工知能を含むデジタル技術が、仕事、経済、社会、そして生活の質に良い影響を与えると信じている。62%の欧州人が、仕事におけるロボットやAIを前向きに捉えており、70%が生産性の向上を信じている。過半数が職場での意思決定にロボットやAIを利用することを支持しているが、欧州人の84%は、AIにはプライバシーの保護や職場の透明性を確保するための慎重な管理が必要だと考えている。
Key findings 主な調査結果
Perception of robots and Artificial intelligence ロボットと人工知能に対する認識
67% positively perceive the use of digital technologies, including Artificial Intelligence, to improve workers’ safety and security. 67%が、人工知能を含むデジタル技術の利用が労働者の安全と安心を向上させることを肯定的に受け止めている。
QB8.5. In general, how positively or negatively do you perceive the use of digital technologies, including Artificial Intelligence, in the workplace for each of the following activities - Improving workers' safety and security. QB8.5. 人工知能を含むデジタル技術の職場における利用について、一般的にどの程度肯定的か否定的か。
2_20250215060001
Perception of rules on digital technologies in the workplace 職場におけるデジタル技術に関する規則についての認識
Most Europeans support clear rules for the use of digital technologies, for instance protecting workers’ privacy (82%) and involving workers and their representatives in the design and adoption of new technologies (77%). 例えば、労働者のプライバシーの保護(82%)、新技術の設計・採用における労働者とその代表者の関与(77%)などである。
QB11.1. How important, if at all, do you think the following rules would be in addressing risks and maximizing the benefits of digital technologies, including Artificial Intelligence, in the workplace? QB11.1. 職場で人工知能を含むデジタル技術のリスクに対処し、利益を最大化する上で、以下のルールが重要であると考える場合、どの程度重要であると考えるか。
3_20250215060001

 

報告書

サマリー...

・[PDF] Summary

20250215-60537

 

本体

・[PDF] Report (EN)

20250215-60344

 

目次...

Introduction  序文
Key findings  主な調査結果
I. General perceptions of digital technologies  I. デジタル技術に対する一般的認識
1. Impact of digital technologies  1. デジタル技術の影響
a) Current employment  a) 現在の雇用
b) The economy  b) 経済
c)  Society  c) 社会
d)  Quality of life  d) 生活の質
e)  Social security benefits  e) 社会保障給付
II. Proficiency with digital technologies  II. デジタル技術の習熟度
1. Digital skills overall  1. デジタル技術全般
a) In daily life  a) 日常生活
b) Digital and learning opportunities  b) デジタル技術と学習の機会
2. Digital skills and labour market  2. デジタルスキルと労働市場
a) Current employment   a) 現在の雇用
b) Future employment  b) 将来の雇用
III. Attitudes towards digital technologies and Artificial Intelligence in the workplace  III. 職場におけるデジタル技術と人工知能に対する態度
1. Perception of robots and Artificial Intelligence 30  1. ロボットと人工知能に対する認識 30
a) In the workplace  a) 職場において
b) In the labour market  b) 労働市場において
2. Perceived impact of robots and Artificial Intelligence 42  2. ロボットと人工知能が与える影響についての認識 42
a) Overall  a) 全体的な影響
b) On specific activities  b) 特定の情報活動への影響
3. Perceptions of rules on digital technologies in the workplace  3. 職場におけるデジタル技術に関する規則についての認識
IV. Experience with digital technologies in the workplace  IV.職場におけるデジタル技術の使用経験
1. Awareness of the use of digital technologies 68  1. デジタル技術の使用に関する認識 68
a) Overall  a) 全体的なもの
b) Activities performed by digital technologies  b) デジタル技術によって行われる活動
c) Communication around the use of digital technologies  c) デジタル技術の使用をめぐるコミュニケーション
2. Provision of tools and training to work effectively with digital technologies  2. デジタル技術を効果的に活用するためのツールやトレーニングの提供
Conclusion  結論
Technical Specifications  技術仕様
Questionnaire  アンケート 

 

序文...

Introduction 序文
Artificial intelligence, or AI, refers to computer systems capable of performing tasks that typically require human intelligence.. As AI develops, it can offer benefits to citizens and businesses across Europe, and it can lead to increase in productivity and job creation. However, the rise of AI also gives rise to challenges. The stock of industrial robots in Europe has more than quadrupled in the past 25 years. Technological advancement generates increasing uncertainty. Technology may have a significant impact on the quantity of jobs available to humans, but it also transforms them, changing how jobs are performed, with implications for workers’ quality of life and for productivity.  人工知能(AI)とは、通常人間の知能を必要とするタスクを実行できるコンピューターシステムを指す。AIが発展すれば、欧州全域の市民や企業に恩恵をもたらし、生産性の向上や雇用創出につながる可能性がある。しかし、AIの台頭は課題も生む。欧州における産業用ロボットのストックは、過去25年間で4倍以上に増加した。技術の進歩は不確実性を増大させる。テクノロジーは、人間が利用できる仕事の量に大きな影響を与えるかもしれないが、同時に、仕事のやり方を変え、労働者の生活の質や生産性に影響を与える。
The European Commission recognised this potential early and is taking action to foster the take-up of artificial intelligence by the private and public sectors. In its Communication of April 2018 on Artificial Intelligence for Europe, the Commission outlines a number of measures and financing instruments through which it will promote this goal[1]. Moreover, linking to the European Digital Strategy[2], in July 2020, the European Commission launched the European Skills Agenda for sustainable competitiveness, social fairness and resilience, which sets ambitious objectives for upskilling (improving existing skills) and reskilling (training in new skills) . Since then, much progress has been made in each of the 12 flagship actions identified[3], including the publication in early 2022 of the updated Digital Competence Framework covering the digital competences needed for emerging technologies and AI[4] 欧州委員会は、この可能性を早くから認識し、民間部門と公的部門による人工知能の導入を促進するために行動を起こしている。欧州委員会は、2018年4月に発表した「欧州のための人工知能」に関するコミュニケーションにおいて、この目標を推進するための多くの施策と融資手段を概説している[1]。さらに、欧州委員会は、欧州デジタル戦略[2]と連動して、2020年7月に「持続可能な競争力、社会的公正、レジリエンスのための欧州技能アジェンダ」を立ち上げ、アップスキル(既存の技能の向上)とレジリエンス(新たな技能の訓練)に関する野心的な目標を設定している。それ以来、特定された12のフラッグシップ・アクション[3]のそれぞれにおいて多くの進展が見られ、2022年初頭には、新興技術やAI[4]に必要なデジタル・コンピテンスを網羅した最新のデジタル・コンピテンス枠組みが発表された。
The accelerated digitalisation of workplaces also puts the spotlight on issues related to surveillance, the use of data, and the application of algorithmic management tools. Algorithms can be used in management functions, such as planning, organisation, command, coordination and control. The Joint Research Centre’s AMPWork study finds that a relatively high proportions of workers in Spain and Germany use digital tools and are subject to digital monitoring and algorithmic management[5]. AI systems are also often applied to guide recruitment, monitor workloads, or define remuneration rates.  職場のデジタル化の加速は、監視、データの利用、アルゴリズム管理ツールの適用に関する問題にもスポットライトを当てている。アルゴリズムは、計画、組織化、指揮、調整、制御といった管理機能に利用することができる。共同研究センターのAMPWork調査によると、スペインとドイツでは、比較的高い割合の労働者がデジタルツールを使用し、デジタル監視とアルゴリズム管理の対象になっている[5]。AIシステムはまた、採用の指導、仕事量の監視、報酬率の定義に適用されることも多い。
Addressing the challenges of algorithmic decision-making, notably the risks of biased decisions, discrimination and lack of transparency, can improve trust in AI-powered systems, promote their uptake and protect fundamental rights[6]. Proposed by the European Commission in December 2021 and provisionally agreed upon by the European Parliament and the Council in February 2024, the Platform Work Directive will be the first EU instrument to tackle the challenges arising from the use of AI in the workplace. Once finally adopted, it will provide more transparency, fairness, human oversight, safety and accountability regarding algorithmic management on digital labour platforms by helping people better understand how tasks are allocated and prices are set. It will also enable them to contest decisions that affect working conditions if needed. Against this backdrop, this Special Eurobarometer survey aims to gauge EU citizens’ perceptions of and attitudes towards automation and AI in working life. More particularly, the study covers the following topics: アルゴリズムによる意思決定の課題、特に偏った決定、識別的リスク、透明性の欠如に改善することで、AI搭載システムに対する信頼を向上させ、その導入を促進し、基本的権利を守ることができる[6]。2021年12月に欧州委員会によって提案され、2024年2月に欧州議会と理事会によって暫定合意されたプラットフォームワーク指令は、職場におけるAIの使用から生じる課題に取り組む最初のEUの制度となる。最終的に採択されれば、デジタル労働プラットフォームにおけるアルゴリズム管理について、透明性、公平性、人間による監視、安全性、説明責任を高めることになる。また、必要に応じて、労働条件に影響する決定に異議を唱えることも可能になる。このような背景から、このユーロバロメーター特別調査は、EU市民の労働生活における自動化とAIに対する認識と態度を測定することを目的としている。具体的には、以下のトピックを対象としている:
・General perceptions of the impact of digital technologies;  ・デジタル技術の影響に関する一般的な認識、
・Proficiency with digital technologies;  ・デジタル技術の習熟度、
・Awareness of and experience with digital technologies, including AI, in the workplace;  ・職場におけるAIを含むデジタル技術に対する認識と経験、
・Attitudes towards these digital technologies and their use in the workplace.  ・デジタル技術と職場におけるその使用に対する態度。
The survey finds that, while positive perceptions of the impact of the most recent digital technologies have declined over the past seven years, Europeans still generally have a positive view of said impact. Specifically, while citizens generally see the positive potential of technologies and specifically artificial intelligence, this does not translate to unfettered support. Notably, more than six in ten Europeans say they think robots and artificial intelligence area good thing for society, with the caveat that a clear majority (84%) also say such technologies need careful management. The survey highlights that the potential of robots and artificial intelligence to lighten workload by doing boring or repetitive jobs or being used to make accurate decisions is appreciated, but respondents are wary of their impact on social areas like communication between colleagues.  同調査によると、最新のデジタル技術の影響に対する肯定的な認識は過去7年間で低下しているものの、欧州の人々は依然として一般的に同影響を肯定的に捉えている。具体的には、市民は一般的にテクノロジー、特に人工知能のポジティブな可能性を見ているが、これは自由な支持にはつながらない。注目すべきは、10人に6人以上のヨーロッパ人が、ロボットや人工知能は社会にとって良いことだと思うと答えていることだ。この調査では、ロボットや人工知能が、退屈な仕事や繰り返しの多い仕事をこなしたり、正確な判断を下すために使われることで、仕事量を軽減する可能性は評価されているが、回答者は、同僚間のコミュニケーションなど社会的な分野への影響を警戒していることが浮き彫りになっている。
Looking specifically at digital skills and awareness, most Europeans think of their current skills as sufficient for their daily life and work needs. However, this result should be seen in context: a significant number of Europeans who lack even basic digital skills (almost 45%)[7] and the number of ICT specialists is growing but still relatively low (est. 9.8 million)[8]. Most employees are also aware of their employer’s use of digital technologies to manage employee activities.  デジタル・スキルと意識について具体的に見ると、ほとんどのヨーロッパ人は、現在の自分のスキルは日常生活や仕事のニーズに対して十分だと考えている。しかし、この結果は、基本的なデジタル・スキルさえ不足している欧州人がかなり多く(約45%)[7]、ICTスペシャリストの数は増加しているが、まだ比較的少ない(推定980万人)[8]。ほとんどの従業員は、雇用主が従業員の活動を管理するためにデジタル技術を利用していることも認識している。
Patterns in the opinions of Europeans based on their sociodemographic characteristics are also highlighted throughout the report. Younger respondents, respondents with less financial difficulties, respondents who are currently in employment or those with a higher education level tend to have more positive attitudes towards technologies and artificial intelligence, for example.  社会人口統計学的特徴に基づく欧州人の意見のパターンも、本レポートを通じて強調されている。例えば、若い回答者、経済的困難が少ない回答者、現在就業中の回答者、教育レベルの高い回答者は、テクノロジーや人工知能に対してより肯定的な態度を示す傾向がある。
Some of the questions in this Special Eurobarometer were asked in previous Eurobarometer surveys conducted in March 2017[9] and in December 2019[10]. Where possible, the results of the current survey are compared with those of the two previous studies. この特別ユーロバロメーターに掲載されている質問の一部は、2017年3月[9]と2019年12月[10]に実施されたユーロバロメーターの過去の調査でも質問されている。可能な限り、今回の調査結果は、過去2回の調査結果と比較している。

[1] ''Communication Artificial Intelligence for Europe', COM(2018) 237 final: 1 https://eurlex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52018DC0237.

[2] 'Shaping Europe's digital future': https://digital-strategy.ec.europa.eu/en/policies.

[3] 'Factsheet - European Skills Agenda: progress on the 11 flagship actions (2023)'.Available at: https://ec.europa.eu/social/main.jsp?catld=1223

[4] 'Digital Competences Framework (DigComp 2.2) update published':https://ec.europa.eu/social/main.jsp?langld=en&catld=89&newsld=10193&furtherNews=yes.

[5] 5 'Algorithmic management and digital monitoring of work: https://joint-research-centre.ec.europa.eu/scientific-activities-z/employment/algorithmic-management-and-digital-monitoring-work_en.

[6] 'The European Pillar of Social Rights Action Plan': https://pp.europa.eu/ebpub/empl/european-pllar-of-soclal-rights/en.

[7] Digital skills in 2023: impact of education and age : https://ec.europa.eu/eurostat/web/products-eurostat-news/w/ddn-20240222-1

[8] More people employed in ICT in the EU in 2023 : https://ec.europa.eu/eurostat/web/products-eurostat-news/w/ddn-20240524-2

[9] Special Eurobarometer 460, 'Attitudes towards the impact of digitisation and automation on daily life': https://europa.eu/eurobarometer/surveys/detail/2160.

[10] Special Eurobarometer 503, 'Attitudes towards the impact of digitalisation on daily lives': https://europa.eu/eurobarometer/surveys/detail/2228.

 

主な発見事項...

At least half of Europeans believe the most recent digital technologies, including Artificial Intelligence, have a positive impact on each of the areas tested  欧州の人々の少なくとも半数は、人工知能を含む最新のデジタル技術が、テストした各分野にプラスの影響を与え ていると考えている
・Two thirds of respondents currently in employment think the most recent digital technologies, including Artificial Intelligence, currently have a positive impact on their job (66%).  ・現在就業中の回答者の3分の2は、人工知能を含む最新のデジタル技術が、現在自分の仕事にプラスの影響を与え ていると考えている(66%)。
・Of all the respondents, more than six in ten believe the most recent digital technologies currently have a positive impact on the economy, their quality of life and social security benefits (all 62%).  ・全回答者のうち、10人に6人以上が、最新のデジタル技術は現在、経済、生活の質、社会保障給付にプラスの影響を与えていると考えている(いずれも62%)。
・More than half (56%) indicate that the most recent digital technologies have a positive impact on society.  ・半数以上(56%)が、最新のデジタル技術は社会に良い影響を与えていると回答している。
・The proportions who think the most recent technologies have a positive impact on the economy (-13 percentage points), society (-8 pp) and their quality of life (-5 pp) have declined since March 2017.  ・最新のテクノロジーが経済(-13%ポイント)、社会(-8%ポイント)、生活の質(-5%ポイント)にプラスの影響を与えると考える割合は、2017年3月以降減少している。
・Younger respondents, those with a higher education level, those with the least financial difficulties, and those who are currently working are the most likely to think these technologies have a positive impact.  ・若い回答者、教育レベルが高い回答者、経済的困難が最も少ない回答者、現在働いている回答者が、これらの技術がプラスの影響を与えると考える傾向が最も高い。
Large majorities think that rules addressing risks and maximising the benefits of digital technologies in the workplace would be important  職場でのリスクへの対処とデジタル技術の便益を最大化するルールが重要であると考える人が大多数
・More than eight in ten (82%) say protecting workers' privacy would be important in addressing risks and maximizing the benefits of digital technologies, including Artificial Intelligence, in the workplace.  ・10人に8人以上(82%)が、職場でのリスクへの対処と人工知能を含むデジタル技術の便益を最大化する上で、労働者のプライバシーの保護が重要であると答えている。
・Similarly, more than seven in ten think it would be important to involve workers and their representatives in the design and adoption of new technologies (77%), to enforce more transparency in the use of digital technologies to handle HR decision-making (75%), to prohibit fully automated decision-making processes (74%) and to limit the automated monitoring of employees (72%).  ・同様に、10人に7人以上が、新技術の設計と導入に労働者とその代表者を参加させること(77%)、人事の意思決定にデジタル技術を使用する際の透明性を高めること(75%)、意思決定プロセスの完全自動化を禁止すること(74%)、従業員の自動監視を制限すること(72%)が重要だと考えている。
Majorities consider themselves to be sufficiently skilled in the use of the most recent digital technologies  過半数が最新のデジタル技術の使用に十分熟練していると考えている
・Around seven in ten consider themselves to be sufficiently skilled in the use of the most recent digital technologies, including Artificial Intelligence, to be able to benefit from digital and online learning opportunities (71%, +14 percentage point since March 2017) and in their daily life (70%). The respondents who answered are not included in the analysis of this question in order to ensure the trend comparability.  ・約10人に7人が、人工知能を含む最新のデジタル技術の使用に十分熟練しており、デジタルやオンライン学習の機会(71%、2017年3月から14ポイント増)や日常生活(70%)から恩恵を受けることができると考えている。傾向の比較可能性を確保するため、本設問の分析には回答者は含まれていない。
・Among those currently in employment and who did not answer ‘Not applicable’ at the aforementioned question, three quarters feel they have a sufficient level of digital skills to do their job (75%, -7 pp).  ・現在就業中で、前述の質問で「該当しない」と回答しなかった回答者のうち、4分の3が自分の仕事に十分なレベルのデジタルスキルがあると感じている(75%、-7pp)。
・More than seven in ten respondents who are not retired and did not answer ‘Not applicable’ believe they possess an adequate digital proficiency to do a future job if they were to find a job or to change jobs within the next twelve months (72%, +9 pp).  ・退職しておらず、「該当しない」と回答しなかった回答者の10人に7人以上が、今後1年以内に就職または転職する場合、将来の仕事をこなすのに十分なデジタル技能を保有していると考えている(72%、+9pp)。
・Respondents in Denmark, Finland, Luxembourg, Malta, the Netherlands and Sweden are among the most likely to feel confident about their digital skills, while the reverse is true for those in Greece, Hungary, Italy, Portugal and Romania.  ・デンマーク、フィンランド、ルクセンブルク、マルタ、オランダ、スウェーデンの回答者は、自分のデジタルスキルに自信を持つ傾向が最も強いが、ギリシャ、ハンガリー、イタリア、ポルトガル、ルーマニアの回答者はその逆である。
・Younger respondents, those with a higher education level, those in a better financial situation and those who are currently working are the most inclined to say they have a sufficient level of digital skills.  ・若い回答者、教育レベルの高い回答者、経済状況の良い回答者、現在働いている回答者は、十分なレベルのデジタルスキルがあると答える傾向が最も強い。
Most Europeans have a positive opinion of robots and Artificial Intelligence in the workplace, but concerns about their negative impact on employment are still present  ほとんどの欧州人は職場でのロボットや人工知能を肯定的に捉えているが、雇用への悪影響に対する懸念は依然として存在する
・More than six in ten (62%, +1 pp) positively perceive the use of robots and Artificial Intelligence in the workplace, while close to one third (32%, +2 pp) have a negative perception. These perceptions however vary notably by country, with 86% of respondents in Denmark saying they perceive this positively compared to less than half in Portugal or Greece (both 48%).  ・10人に6人以上(62%、+1pp)が職場でのロボットや人工知能の利用を肯定的に捉えているが、3分の1近く(32%、+2pp)は否定的に捉えている。しかし、これらの認識は国によって大きく異なり、デンマークでは回答者の86%が肯定的に認識していると答えているのに対し、ポルトガルやギリシャでは半数以下(いずれも48%)であった。
・Majorities agree that robots and Artificial Intelligence increase the pace at which workers complete tasks (73%), that Artificial Intelligence is necessary as it can do jobs that are seen as boring or repetitive (66%) and that robots and Artificial Intelligence can be used to make accurate decisions in the workplace (53%).  ・ロボットや人工知能によって、労働者が仕事をこなすペースが速くなる(73%)、退屈で反復的だと思われている仕事をこなすことができる人工知能は必要である(66%)、職場で正確な意思決定をするためにロボットや人工知能を使うことができる(53%)。
・At the same time, 66% believe that due to the use of robots and Artificial Intelligence, more jobs will disappear than new jobs will be created, and that robots and Artificial Intelligence steal peoples’ jobs. However, both these proportions have declined since March 2017 (-8 pp and -6 pp, respectively).  ・同時に、66%は、ロボットや人工知能の利用によって、新しい仕事が生まれるよりも多くの仕事がなくなると考えており、ロボットや人工知能は人々の仕事を奪うと考えている。しかし、これらの割合はいずれも2017年3月以降低下している(それぞれ-8pp、-6pp)。
・In addition, 61% agree that robots and Artificial Intelligence have a negative impact on communication between colleagues.  ・さらに、ロボットや人工知能が同僚間のコミュニケーションに悪影響を与えることに61%が同意している。
Large majorities think robots and Artificial Intelligence are a good thing for society, but also that they should be carefully managed  ロボットや人工知能は社会にとって良いものだが、注意深く管理されるべきものだと考える人が大多数
・More than six in ten (63%) think that robots and Artificial Intelligence help people do their jobs or carry out daily tasks at home. This proportion shows a decrease of five percentage points since March 2017.  ・10人に6人以上(63%)が、ロボットや人工知能は人々の仕事や家庭での日常業務を助けると考えている。この割合は2017年3月から5ポイント減少している。
・Nonetheless, more than eight in ten (84%, -4 pp) think that these technologies require careful management.  ・それにもかかわらず、10人に8人以上(84%、-4pp)は、これらのテクノロジーには慎重な管理が必要だと考えている。
・Less than half (48%) indicate that robots and Artificial Intelligence should be used more widely outside the workplace, while 43% hold the opposite view.  ・半数以下(48%)は、ロボットや人工知能は職場外でもっと広く使われるべきであると回答し、43%は反対の見解を示している。
The use of digital technologies, including Artificial Intelligence, for many activities in the workplace is seen in a negative light  職場の多くの活動に人工知能を含むデジタル技術が使用されることは否定的に捉えられている
・Overall, respondents are concerned about the use of digital technologies, including Artificial Intelligence, to automatically fire workers (78%), to monitor workers (63%), to assess workers’ performance (57%), to select applicants for a job (57%), to gather additional information on applicants for a job (50%), and to collect, process, and store workers’ personal data (49%).  ・全体として、回答者は人工知能を含むデジタル技術が、労働者を自動的に解雇する(78%)、労働者を監視する(63%)、労働者の業績を評価する(57%)、就職希望者を選考する(57%)、就職希望者の追加情報を収集する(50%)、労働者のパーソナルデータの収集、処理、保存をする(49%)に使用されることを懸念している。
・However, around two thirds (67%) positively perceive the use of such technologies to improve workers’ safety and security, and a relative majority positively perceive their use to allocate tasks to workers or manage their working schedules and shifts (49% positively vs 44% negatively).  ・しかし、約3分の2(67%)は、労働者の安全と安心を向上させるためにこのような技術が使用されることを肯定的に受け止めており、また、労働者に仕事を割り当てたり、労働スケジュールやシフトを管理したりするために使用されることを肯定的に受け止めている人が比較的多い(肯定的49%対否定的44%)。
・Positive perceptions of the use of these technologies in the workplace are more widespread among younger respondents, those with a higher education level and those who are currently working.  ・職場におけるこうした技術の使用に対する肯定的な認識は、回答者の年齢が若いほど、教育水準が高いほど、そして現在働いている人ほど広がっている。
A majority is aware of the use their employer makes of digital technologies and sizeable proportions report that digital technologies have been used to perform activities in their workplace  過半数が雇用主がデジタル技術を利用していることを認識しており、かなりの割合が職場でデジタル技術が利用されていると報告している
・More than six in ten of those who are currently in employment (62%) say they are aware of the use their employer makes of digital technologies, including Artificial Intelligence, to manage their or their coworkers’ activities.  ・現在就業中の人の10人に6人以上(62%)が、雇用主が自分や同僚の活動を管理するために、人工知能を含むデジタル技術を利用していることを認識していると答えている。
・Among those who have a current or past occupation, 30% report that digital technologies, including Artificial Intelligence, have enforced safety measures in their current or previous workplaces, and 29% say these technologies have managed worktime schedules.  ・現在または過去の職場で、人工知能を含むデジタル技術が安全対策に役立っていると回答した人は30%、勤務時間管理に役立っていると回答した人は29%であった。
・More than one in five indicate that monitoring workers' activities (24%), allocating tasks to workers (22%) or assessing workers' performance, including imposing sanctions or attributing rewards (21%) have been performed by these technologies in their workplaces. In addition, 18% indicate that these technologies have been used to hire workers.  ・5人に1人以上が、労働者の行動を監視すること(24%)、労働者に仕事を割り当てること(22%)、制裁を課したり報酬を与えたりすることを含む労働者のパフォーマンスをアセスメントすること(21%)を、これらのテクノロジーが職場で行ったと回答している。さらに、18%が労働者の雇用にこれらの技術が使用されたと回答している。
・The reported use of these technologies tends to be higher in the logistics sector and in establishments employing at least ten people.  ・これらの技術の利用は、物流部門や10人以上の従業員を雇用する事業所において高い傾向にある。
Less than half of those currently in employment say their employer informed them about the use of digital technologies, while more than half of employers and managers report having done so  現在雇用されている人の半数以下が、雇用主からデジタル技術の使用について説明を受けたと回答している一方、雇用主や管理職の半数以上が説明を受けたと回答している
・Among respondents who are currently in employment, close to half (49%) say their employer informed them about the use of digital technologies, including Artificial Intelligence, to manage activities in their workplace.  ・現在雇用されている回答者のうち、半数近く(49%)が、職場の活動を管理するために人工知能を含むデジタル技術の使用について、雇用主から説明を受けたと回答している。
・This proportion includes 16% who say they have been made aware of this, but without further details, and 18% who report having received a detailed explanation, including information about the benefits, drawbacks, and their rights.  ・この割合には、「説明は受けたが、詳しい説明はなかった」という回答が16%、「メリット、デメリット、権利など詳しい説明を受けた」という回答が18%含まれている。
・Among employers and managers, 53% report that they have ensured that their employees or the people they manage have been informed about the use of these technologies in the workplace, including 16% who say they have made them aware, but without further details, and 22% who declare that they have given them a detailed explanation.  ・雇用主や管理職のうち53%が、従業員や管理職に職場におけるこれらの技術の使用について周知徹底させたと回答している、 その内、16%が「従業員に周知させたが、詳しい説明はしなかった」、22%が「従業員に詳しい説明をした」と回答している。
・Employees working in the logistics sector and in larger establishments are the most inclined to report that they have been informed. Employers and managers in logistics are the most likely to say that they have ensured that employees are informed, while there is no clear pattern in terms of establishment size.  ・物流部門で働く従業員や大規模な事業所で働く従業員が、最も「知らされている」と回答する傾向が強い。物流部門の雇用主や管理職は、従業員への情報提供を確実に行ったと回答する割合が最も高いが、事業所の規模による明確なパターンは見られない。
A large majority of those currently in employment feels their employer equips them with the necessary tools to work with digital technologies  現在雇用されている人の大多数は、雇用主がデジタル技術を使って仕事をするために必要なツールを提供していると感じている
・More than two thirds of those currently in employment (68%) agree that their employer provides them with the necessary tools or training to work effectively with the most recent digital technologies, while 28% disagree with the statement. ・現在雇用されている人の3分の2以上(68%)は、雇用主が最新のデジタル技術を使って効果的に仕事をするために必要なツールやトレーニングを提供していることに同意しているが、28%はこの意見に同意していない。

 

 

データ編

・[PDF] Data annex (EN)

20250215-60418

 

 国ごとのデータもあります...

 


 

 

 

 

| | Comments (0)

2024.12.25

英国 ICO 意見募集 ストレージとアクセス技術に関する改訂版ガイドライン案(Cookieやトラッキングピクセルなど...)(2024.12.20)

こんにちは、丸山満彦です。

英国のICOが、ストレージとアクセス技術に関する改訂版ガイドライン案を公表していますね...

昔から英国のICOはクッキーの確認の仕方がについて、「そんなやりかた、茶番でしょう...『だれも理解していないけど、前に進みたいから、おすだけでしょう...』みたいな対応なんて意味がないよ」という感じでしたが、さて、今回のガイドライン案はどのようになっていますでしょうか...

このガイダンスは...

  • Web 開発者やアプリ開発者などのオンライン サービス プロバイダーを対象として、

  • 誰かのデバイス(コンピューターや携帯電話など)に情報を保存したり、保存されている情報にアクセスしたりする技術を利用する場合に、2003 年プライバシーおよび電子通信規制(修正版)(PECR)および該当する場合はデータ保護法がどのように適用されるか

について説明しているものですね...

なお、PECR が適用される技術には、例えば、以下のものが含まれますね...

  • Cookie
  • トラッキングピクセル
  • リンクデコレーション、ナビゲーショントラッキング
  • ローカルストレージ
  • デバイスフィンガープリンティング
  • スクリプト、タグ

 

How do we manage consent in practice?」のパートでは、同意をどのように管理するのか?ということで、ちょっとしたアニメーションのついた例示を使って、わかりやすく説明していますね...

ガイドラインもPDFって感じではないかもですね...

このガイド案では、

  • PECR でカバーされる技術 (Cookie、トラッキング ピクセルなど)
  • ストレージおよびアクセス技術を使用する組織のコンプライアンス義務
  • ポップアップ、ブラウザ設定、設定主導のメカニズムなどの方法を含む、同意の取得と管理に関する期待
  • 子どもが利用するサービスに対する特別な配慮、透明性と同意のメカニズムの要件
  • 追跡、プロファイリング、広告測定に関する同意要件、「Cookieの壁」や同意メカニズムなどのモデルについての説明

などなどを取り扱っていますね...

参考になると思います...

意見は2025.03.14まで...

 

U.K. Information Commissioner's Office; ICO

プレス...

・2024.12.20 ICO consultation on the draft updated guidance on storage and access technologies

ICO consultation on the draft updated guidance on storage and access technologies ICO、ストレージとアクセス技術に関するガイダンスのドラフト更新に関するコンサルテーションを実施
The Information Commissioner's Office (ICO) is consulting on this draft updated guidance on storage and access technologies (previously known as the ‘detailed cookies guidance’). 情報コミッショナー事務局(ICO)は、ストレージおよびアクセス技術に関するガイダンス(以前は「詳細なクッキーガイダンス」として知られていた)の更新ドラフトについてコンサルティングを行っている。
Your responses will help us to provide any additional further clarity required in the final guidance update. 皆様からのご回答は、最終的なガイダンスの更新に必要なさらなる明確性を提供するために役立つ。
Respond to the consultation via SmartSurvey here. SmartSurveyでこのコンサルテーションに対応する。
You can also respond to the consultation by contacting us at [mail] また、 [mail]
までご連絡いただいても対応可能である。
We welcome feedback to the questions set out in the survey. This survey is split into the following sections: アンケートに記載された質問に対するフィードバックを歓迎する。このアンケートは以下のセクションに分かれている:
・Section 1: Your views on our proposed regulatory approach ・セクション1:提案されている規制アプローチに関するご意見
・Section 2: Questions to assess the impact of our approach ・セクション 2: セクション2:我々のアプローチの影響を評価するための質問
・Section 3: About you and your organisation ・セクション3:あなたとあなたの組織について
・Section 4: Final comments ・セクション4:最終コメント
The consultation will remain open until 5pm on Friday 14 March 2025. We may not consider responses received after the deadline. コンサルテーションは2025年3月14日(金)午後5時まで受け付ける。期限を過ぎた回答は考慮しない場合がある。
This survey will take around 15 - 20 minutes to complete. このアンケートの所要時間は約15~20分である。
Impact Assessment 影響アセスメント
We have produced a draft impact assessment to accompany this draft guidance. 我々は、このガイダンス草案に付随する影響評価のドラフトを作成した。
The draft impact assessment is available here. インパクトアセスメントのドラフトはこちらから入手できる。
We are seeking feedback on this draft impact assessment through the above survey to inform the final version, which will accompany the final updated guidance. 最終的なガイダンスに添付される最終版に反映させるため、上記のアンケートを通じてこの影響アセスメント案に対するフィードバックを求めている。

 

 ガイドライン案...

・2024.12.20 Guidance on the use of storage and access technologies

Guidance on the use of storage and access technologies ストレージおよびアクセス技術の使用に関するガイダンス
Contents 目次
What's new 最新情報
About this guidance このガイダンスについて
Why have you produced this guidance? なぜこのガイダンスを作成したのか?
Who is it for? 誰のためのガイダンスなのか?
What does it cover? 何をカバーしているのか?
What doesn’t it cover? 何をカバーしていないのか?
How should we use this guidance? このガイダンスをどのように使うべきか?
What are storage and access technologies? 保管技術とアクセス技術とは何か?
What technologies does PECR apply to? PECRはどのような技術に適用されるのか?
Cookies クッキー
Tracking pixels トラッキングピクセル
Link decoration and navigational tracking リンク装飾とナビゲーショントラッキング
Device fingerprinting デバイスフィンガープリント
Web Storage ウェブストレージ
Scripts / tags スクリプト/タグ
Using storage and access technologies in different contexts さまざまなコンテキストでストレージとアクセス技術を使用する
What are the rules? 規則とは何か?
What does PECR say about storage and access technologies? PECRはストレージとアクセス技術について何を言っているのか?
Who are subscribers and users? 加入者とユーザーとは誰か?
What is terminal equipment? 端末機器とは何か?
What does ‘clear and comprehensive information’ mean? 明確かつ包括的な情報」とは何か?
What does 'consent' mean? 同意」とは何か?
Do all storage and access technologies require consent? すべての保管・アクセス技術に同意が必要か?
What is the ‘communication’ exemption? コミュニケーション」の適用除外とは何か?
What is the ‘strictly necessary’ exemption? 「厳密に必要な」適用除外とは何か?
When do the exemptions not apply? 適用除外はどのような場合に適用されないのか?
Do the rules only apply to websites and web browsers? 規則はウェブサイトとウェブブラウザにのみ適用されるのか?
Do the rules apply to our internal network? 規則は社内ネットワークにも適用されるのか?
Do the rules apply to public authorities? 規則は認可機関に適用されるか?
Do the rules apply to services based outside the UK? 規則は英国外に拠点を置くサービスに適用されるか?
What if children are likely to access our online service? 当社のオンラインサービスに子供がアクセスする可能性がある場合はどうするのか?
How do the PECR rules relate to the UK GDPR? PECR規則は英国のGDPRとどのように関連しているか?
What is the relationship between PECR and the UK GDPR? PECRと英国GDPRの関係は?
What does the UK GDPR say about storage and access technologies? 英国のGDPRは、保管およびアクセス技術についてどう述べているか?
How does PECR consent fit with the lawful basis requirements of the UK GDPR? PECRの同意は、英国GDPRの合法的根拠要件とどのように適合するか?
What does PECR say about subsequent processing? PECRは事後処理についてどのように述べているか?
How do we comply with the rules? どのように規則を遵守するのか?
Who is responsible for compliance? 誰が遵守の責任を負うのか?
How do we consider PECR when designing a new online service? 新しいオンラインサービスを設計する際、PECRをどのように考慮するか?
What do we need to consider if we use someone else’s technologies on our online service? オンラインサービスで他者の技術を使用する場合、何を考慮する必要があるか?
How do we tell people about the storage and access technologies we use? 私たちが使用するストレージやアクセス技術について、どのように人々に伝えるか?
How do we tell people about storage and access technologies set on websites that we link to? リンク先のウェブサイトに設定されているストレージやアクセス技術について、どのように人々に伝えるか?
Can we pre-enable any non-essential storage and access technologies? 必要でないストレージやアクセス技術を事前に有効にすることは可能か?
How long can we store or access information for? どれくらいの期間、情報を保存したりアクセスしたりすることができるか?
What is an audit and how can we do one? 監査とは何か、監査はどのように行うのか。
How do we manage consent in practice? 同意はどのように管理するのか?
When do we need to get consent? いつ同意を得る必要があるのか?
Who do we need consent from? 誰からの同意が必要か?
How do we request consent? どのように同意を求めるのか?
Can we use pop-ups and similar techniques? ポップアップや類似のテクニックを使用してよいか?
Our expectations for consent mechanisms 同意の仕組みに対する期待
Can we rely on settings-led consent? 設定主導の同意に頼ることができるか?
Can we rely on feature-led consent? 機能主導の同意に頼ることができるか?
Can we rely on browser settings and other control mechanisms for consent? 同意のためにブラウザの設定やその他の制御メカニズムに頼ることができるか?
Can we use ‘terms and conditions’ to gain consent? 同意を得るために「利用規約」を使用できるか?
Can we bundle consent requests? 同意の要請を束ねることができるか?
How often do we need to request consent? どれくらいの頻度で同意を求める必要があるか?
What if our use of storage and access technologies changes? 保存技術やアクセス技術の使用に変更があった場合はどうするか?
How do we keep records of user preferences? ユーザーのプリファレンスの記録はどのように保存するか?
What if a user withdraws their consent? ユーザーが同意を撤回した場合はどうするか?
How do the rules apply to online advertising? ルールはオンライン広告にどのように適用されるか?
Do we need consent for tracking and profiling for online advertising? オンライン広告のトラッキングやプロファイリングに同意は必要か?
Does ad measurement require consent? 広告測定には同意が必要か?
What types of online advertising can we use? どのようなオンライン広告を利用できるか?
Can we use ‘cookie walls’ or ‘consent or pay’ models? 「Cookieの壁」や「同意または支払い」モデルを使用できるか?
What happens if we don’t comply? コンプライアンスに従わない場合はどうなるのか?
Glossary 用語集

 

 


 

そして、重要なのは「影響アセスメント」です...日本もこういうアセスメントをきっちりと義務付けることが、重要なのではないかと思います。。。

 

・[PDF] Guidance on the use of storage and access technologies impact assessment - DRAFT

20241224-75432

 

目次...

Contents  目次 
Executive summary エグゼクティブサマリー
1. Introduction 1. 序文
1.1. Our approach to impact assessment 1.1. 影響アセスメントへのアプローチ
1.2. Report structure 1.2. 報告書の構成
2. Problem definition 2. 問題の定義
2.1. What are storage and access technologies? 2.1. ストレージ技術とアクセス技術とは何か?
2.2. Problem definition 2.2. 問題の定義
2.3. Use of storage and access technologies within the UK 2.3. 英国内でのストレージとアクセス技術の利用
3. Rationale for Intervention 3. 介入の理由
3.1. Data protection (DP) harms 3.1. データ保護(DP)の弊害
3.2. Policy Context 3.2. 政策の背景
3.3. Market failures 3.3. 市場の失敗
3.4. Summary of rationale for intervention 3.4. 介入の根拠
4. Options appraisal 4. オプション評価
4.1. Options for consideration 4.1. 検討すべき選択肢
4.2. Assessment of options 4.2. オプションのアセスメント
5. Detail of proposed intervention 5. 介入案の詳細
5.1. The guidance 5.1. ガイダンス
5.2. Scope of draft guidance 5.2. ドラフトガイダンスの範囲
5.3. Guidance timeline 5.3. ガイダンスのスケジュール
5.4. Affected groups 5.4. 影響を受けるグループ
6. Cost-benefit analysis 6. 費用便益分析
6.1. Identifying impacts 6.1. 影響の識別
6.2. Counterfactual 6.2. 反事実
6.3. Costs and Benefits 6.3. 費用と便益
7. Monitoring and review 7. モニタリングとレビュー
Annex A: What are storage and access technologies? 附属書A:保管技術とアクセス技術とは何か?
Annex B: Measurement of affected groups 附属書B:影響を受けるグループの測定
Annex C: Familiarisation costs 附属書C:周知コスト

 

 

エグゼクティブサマリー

Executive summary  エグゼクティブサマリー 
This draft impact assessment accompanies our draft guidance on the use of storage and access technologies. The overarching objectives of the guidance are to provide regulatory certainty to organisations:  本影響評価ドラフトは、保管・アクセス技術の使用に関するガイダンスのドラフトに付随するものである。ガイダンスの包括的な目的は、組織に規制上の確実性を提供することである: 
• on compliant practices for using storage and/or access to information on a device;  - デバイス上の情報へのストレージおよび/またはアクセスを使用する際の、コンプライアンスに準拠した慣行について; 
• in the application and use of consent mechanisms, where required; and  - 必要な場合には、同意メカニズムの適用と使用に関して。
• regarding our expectations when they are using storage and access technologies.  - また、必要な場合には、同意の仕組みの適用と使用についてである。
This document sets out our initial impact findings for consultation, alongside consultation on the draft guidance itself. It is important to note that this isn’t an exhaustive assessment, and we will develop our analysis further as we move towards publication of the final guidance based on information and feedback received. We are seeking feedback on this draft impact assessment, as well as any other information and insights stakeholders can provide on impacts through the consultation process.  本書は、ドラフトガイダンス自体に関するコンサルテーションと並行して、コンサルテーションのための初期影響調査結果を示すものである。これは網羅的な評価ではないことに留意することが重要であり、最終ガイダンスの公表に向けて、寄せられた情報やフィードバックに基づき、さらに分析を深めていく予定である。我々は、この影響アセスメント草案に対するフィードバックを求めるとともに、コンサルテーション・プロセスを通じて、利害関係者が影響に関して提供できるその他の情報や洞察も求めている。
Problem definition and rationale for intervention  問題の定義と介入の根拠 
Storage and access technologies refer to any technology that stores information, or accesses information that is stored on a subscriber or user’s ‘terminal equipment’ (for instance a smartphone or laptop). This is explained further in Annex A, and includes, but is not limited to:  ストレージおよびアクセス技術とは、加入者またはユーザーの「端末機器」(例えば、スマー トフォンやラップトップ)に保存されている情報を保存したり、情報にアクセスしたりするあらゆる 技術を指す。これについては附属書Aで詳しく説明し、以下を含むが、これらに限定されない: 
• cookies;  - クッキー; 
• tracking pixels;  - トラッキングピクセル 
• link decoration and navigational tracking;  - リンク装飾およびナビゲーショントラッキング 
• scripts and tags; • web storage; and  - スクリプトとタグ。
• device fingerprinting.  - デバイスのフィンガープリンティング。
Since our current guidance was produced in 2019 there have been important developments in relation to storage and access technologies. As a result, our guidance no longer reflects current market practices and has given rise to a need for greater regulatory certainty.  2019年に現行のガイダンスが作成されて以来、ストレージとアクセス技術に関連して重要な進展があった。その結果、我々のガイダンスはもはや現在の市場慣行を反映しておらず、より確実な規制の必要性が生じている。 
The ICO is well placed to provide this regulatory certainty and reduce the risk of harms materialising to individuals and wider society from the use of storage and access technologies. With the growing adoption of these technologies across the economy it is expected that without intervention the potential for these harms will rise.  ICOは、この規制上の確実性を提供し、ストレージ・アクセス技術の使用から個人やより広範な社会が被害を受けるリスクを低減するために十分な立場にある。このような技術の採用が経済全体に拡大する中、介入がなければ、このような危害の可能性が高まることが予想される。
Options appraisal  選択肢の評価 
In the context of the identified problem, the following options for intervention were considered:  識別された問題を踏まえ、以下の介入オプションが検討された: 
• Do nothing: Do not update the current version of the detailed cookies guidance, published in 2019.  - 何もしない:2019年に発行される詳細なクッキーガイダンスの現行版を更新しない。 
• Provide a significant update to guidance (preferred option):  - ガイダンスに大幅な更新をプロバイダする(好ましい選択肢): 
Provide a significant update to the detailed cookies guidance, that will: o Clarify and expand on established policy positions where we can provide further regulatory certainty.  詳細なCookieガイダンスに大幅な更新をプロバイダとして提供する。 
o Provide equal weight to “similar technologies” (such as web storage and scripts and tags) alongside cookies by renaming the guidance products and providing new examples.  o ガイダンスの製品名を変更し、新しい例を提供することで、クッキーと並ぶ「類似の技術」(ウェブストレージやスクリプト、タグなど)に同等の重みを与える。
o Provide clarity by using the new style guide and must / should / could framework.  o 新しいスタイルガイドとmust/should/couldの枠組みを使用することにより、明確性を提供する。 
• Provide a light update to guidance (do less): Provide a light update to the detailed cookies guidance, that will:  - ガイダンスを軽く更新する(do less): 詳細なクッキーのガイダンスに軽いアップデートを提供する: 
o Provide clarity by using the new style guide and must / should / could framework.  o 新しいスタイルガイドとmust、should、couldの枠組みを使用することで明確性を提供する。 
Provide sector specific guidance (do more): Provide sector specific guidance and/ or detailed device-specific guidance.  - セクター別のガイダンスを提供する(もっとやる): 新しいスタイルガイドとmust、should、couldの枠組みを使用することで明確性を提供する。
These options were assessed against a number of critical success factors and the production of a significant update to guidance was identified as the preferred option. The preferred option ensures that guidance on storage and access technologies reflects the current use of technology and reduces the risk of the ICO being challenged on outdated guidance.  これらの選択肢は、多くの重要成功要因に照らしてアセスメントされ、ガイダンスの大幅な更 新が好ましい選択肢として特定された。好ましい選択肢は、保管とアクセス技術に関するガイダンスが現在の技術利用を反映することを保証し、ICOが時代遅れのガイダンスについて異議を唱えられるリスクを軽減する。
Details of proposed intervention  介入案の詳細 
The update to the ‘guidance on the use of cookies and similar technologies’ will expand on existing guidance, reframing it as ‘guidance on the use of storage and access technologies’. The guidance is aimed at providers of online services, including web or app developers, who need a deeper understanding of how PECR (Reg 6) and UK GDPR (where the use of these technologies involves the processing of personal data) apply to the use of storage and access technologies. It provides greater regulatory certainty by setting out what organisations must, should, and could do to comply with legislative requirements within the ICO’s remit or relevant established case law.  クッキーおよび類似技術の使用に関するガイダンス」の更新は、既存のガイダンスを拡大し、「保存およびアクセス技術の使用に関するガイダンス」として再構成する。このガイダンスは、ウェブやアプリの開発者を含むオンラインサービスのプロバイダを対象としており、PECR(規則6)と英国GDPR(これらの技術の使用がパーソナルデータの処理を伴う場合)がストレージとアクセス技術の使用にどのように適用されるかを深く理解する必要がある。このガイダンスは、ICOの権限または関連する確立された判例法の範囲内で、組織が法律上の要件を遵守するために何をしなければならず、何をすべきで、何ができるかを示すことにより、規制の確実性を高めるものである。
The route to impact for the guidance is set out in the theory of change in Figure 1 in Section 5. There are various groups that could be affected by the guidance including:  ガイダンスの影響経路は、セクション 5 の図 1 の変化理論に示されている。ガイダンスの影響を受ける可能性のあるグループは以下の通りである: 
• Online service providers: Organisations that use storage and access technologies for essential and non-essential purposes;  - オンラインサービスプロバイダ: オンライン・サービス・プロバイダー:必須および非必須の目的でストレージおよびアクセス技術を使用する組織; 
• Supply chain: Organisations that interact with and assist in collection and processing of information stored and/or accessed on online services; using storage and access technologies;  - サプライチェーン: サプライチェーン:オンラインサービス上に保存及び/又はアクセスされた情報の収集及び処理に関与し、それを支援する組織; 
• UK organisations: Organisations that use online advertising;  - 英国の組織: 英国の組織:オンライン広告を利用する組織; 
• UK population users: People who interact with online services that use storage and access technologies;  - 英国の人口ユーザー: 英国の利用者:ストレージおよびアクセス技術を使用するオンラインサービスとやりとりする人々; 
• The ICO; and  - ICO、および 
• Wider society.  - より広い社会 
Cost-benefit analysis  費用便益分析 
The costs and benefits of the intervention have been identified, as far as is possible and proportionate. Our ability to fully quantify and monetise impacts has been limited given the evidence gaps around the scale of affected groups.  介入によるコストと便益は、可能かつ適切な範囲で特定した。影響を完全に定量化し、収益化する能力は、影響を受けるグループの規模に関するエビデンスのギャップを考慮すると、限定的である。
We will develop our cost-benefit analysis further as we move towards publication of the final guidance based on information and feedback received through the consultation process.  最終ガイダンスの公表に向け、協議プロセスを通じて得られた情報やフィードバックに基づき、費用便益分析をさらに発展させる予定である。
Although there will be costs to organisations from reading, understanding and implementing the guidance, this is expected to be outweighed by the wider societal benefits of reduced data protection harms. On balance we expect the guidance to have a net positive impact.  ガイダンスを読み、理解し、実施することによって、組織にはコストがかかるが、データ保護の害が減少するというより広い社会的利益によって、このコストは上回ると予想される。バランスとしては、このガイダンスは正味でプラスに働くと期待している。
Monitoring and evaluation  モニタリングと評価 
An appropriate and proportionate review structure will be put in place when finalising our guidance. This will follow best practice and align with our organisational reporting and measurement against ICO25 objectives.  ガイダンスを最終化する際には、適切かつ適切なレビュー体制が導入される。これはベストプラクティスに従ったものであり、ICO25 の目標に対する我々の組織的な報告および測定と整合するものである。

 

 

 

| | Comments (0)

2024.12.01

備忘録 論文 法人としてのAI:過去、パターン、展望

こんにちは、丸山満彦です。

例えば、生成AIが人間の指示を受けなくても、新しい物語や、絵画を作り始めるということは、将来的にはありえそうです。その場合、そのようなAIに会社のように法人格を与えるということは、AIが生み出す行為に対する社会的な課題を解決する手段として、適切かもしれません。(可能性の話です...)

ただ、現在のところは、人間の手を離れて契約を交わすこともないですし、具体的な検討は不要なんでしょうね...あくまで、思考ゲームというところなのでしょうかね...

 

PhilArchive

・2024.11.24 AI as Legal Persons: Past, Patterns, and Prospects by  & 

概要...

This chapter examines the evolving debate on AI legal personhood, emphasizing the role of path dependencies in shaping current trajectories and prospects. Two primary path dependencies emerge: prevailing legal theories on personhood (singularist vs. clustered) and the impact of technological advancements. We argue that these factors dynamically interact, with technological optimism fostering broader rights-based debates and periods of skepticism narrowing discussions to limited rights. Additional influences include regulatory cross-linkages (e.g., data privacy, liability, cybersecurity) and historical legal precedents. Current regulatory frameworks, particularly in the EU, generally resist extending legal personhood to AI systems. Case law suggests that without explicit legislation, courts are unlikely to grant AI legal personhood on their own. For this to happen, AI systems would first need to prove de facto legitimacy through sustained social participation. The chapter concludes by assessing near- and longterm prospects, from generative AI and AI agents in the next 5–20 years to transformative possibilities such as AI integration with human cognition via BrainMachine Interfaces in a more distant future.  本章では、AIの法的人格に関する発展途上の議論を検証し、現在の軌跡と展望を形成する経路依存性の役割を強調する。人称に関する一般的な法理論(単一主義かクラスター主義か)と技術的進歩の影響である。技術的楽観主義がより広範な権利に基づく議論を促進し、懐疑主義の時期が限定的な権利に議論を狭めるというように、これらの要因は動的に相互作用していると我々は主張する。さらに、規制のクロスリンク(データ・プライバシー、賠償責任、サイバーセキュリティなど)や歴史的な判例も影響する。現在の規制枠組み、特にEUでは、一般的にAIシステムに法的人格権を拡大することに抵抗がある。判例は、明確な立法がなければ、裁判所がAIに単独で法人格を付与する可能性は低いことを示唆している。そのためにはまず、AIシステムが持続的な社会参加を通じて事実上の正当性を証明する必要がある。本章は、今後5~20年の生成的AIやAIエージェントから、より遠い将来におけるブレイン・マシン・インターフェースを介したAIと人間の認知との統合といった変革の可能性まで、近未来と長期的な展望を評価することで締めくくられている。

 

・[PDF]

20241130-233312

 

同じ指導教官の少し前の論文

・2021.12.10 A conceptual framework for legal personality and its application to AI by  & 

In this paper, we provide an analysis of the concept of legal personality and discuss whether personality may be conferred on artificial intelligence systems (AIs). Legal personality will be presented as a doctrinal category that holds together bundles of rights and obligations; as a result, we first frame it as a node of inferential links between factual preconditions and legal effects. However, this inferentialist reading does not account for the ‘background reasons’ of legal personality, i.e., it does not explain why we cluster different situations under this doctrinal category and how extra-legal information is integrated into it. We argue that one way to account for this background is to adopt a neoinstitutional perspective and to update the ontology of legal concepts with a further layer, the meta-institutional one. We finally argue that meta-institutional concepts can also support us in finding an equilibrium around the legal-policy choices that are involved in including (or not including) AIs among legal persons. 本稿では、法的人格の概念を分析し、人工知能システム(AI)に人格が付与されるかどうかを議論する。法的人格は、権利と義務の束をまとめる教義上のカテゴリーとして提示される。その結果、我々はまず、それを事実的前提条件と法的効果との間の推論的リンクのノードとして枠組みする。しかし、この推論主義的な読解は、法的人格の「背景的理由」を説明するものではない。すなわち、なぜ異なる状況をこの学説上のカテゴリーに分類するのか、また、法律外の情報がどのようにこのカテゴリーに統合されるのかを説明するものではない。このような背景を説明する一つの方法として、新体制の観点を採用し、法概念の存在論をさらにメタ制度的なレイヤーで更新することを主張する。最後に、メタ制度的概念は、法人にAIを含める(あるいは含めない)ことに関わる法的・政策的選択をめぐる均衡を見出す際にも役立つと主張する。

 

・[PDF]

20241130-234238

 

 

 

 

| | Comments (0)

2024.11.27

英国 国防省 JSP 936 V1.1 防衛における信頼できる人工知能(パート1: 指令) (2024.11.13)

こんにちは、丸山満彦です。

英国、国防省の統合業務刊行物 (Joint Service Publication; JSP) として、JSP 936 V1.1 防衛における信頼できる人工知能(パート1: 指令)が発効されていますね...

これは、国防省におけるAIの安全かつ責任ある採用を規定する主要な政策枠組みですね...米国でもそうですが、軍関係でのAIの利用について規則を設け、安心してAIの活用ができるように考えていますね...

戦争だからといって、何をしてもよいわけではなく、一定のルールの中で戦いましょうという考え方がある(でないと、本当に獣になってしまう)ので、軍に関連する分野において、こういう規則はこれから先進国では作られていくでしょうね...

 

Gov.U.K. - Defence and armed forces 

・Joint Service Publication (JSP)

・2024.11.13 JSP 936: Dependable Artificial Intelligence (AI) in defence (part 1: directive)

JSP 936: Dependable Artificial Intelligence (AI) in defence (part 1: directive) JSP 936 防衛における信頼できる人工知能(AI)(パート1:指令)
JSP 936 (part 1: directive) is the principal policy framework governing the safe and responsible adoption of AI in MOD. JSP936(パート1:指令)は、国防省におけるAIの安全かつ責任ある採用を規定する主要な政策枠組みである。
Details 詳細
Following on from the Defence AI Strategy and Ambitious, Safe and Responsible policy, JSP 936 (part 1: directive) is an important step to ensure that teams across defence understand their responsibilities when developing and using AI technologies. It provides clear direction on how to implement the MOD’s AI ethical principles, to deliver safe, robust and effective AI-enabled capabilities which have the right level of human oversight to advance our military edge. JSP 936(パート1:指令)は、国防AI戦略および野心的、安全かつ責任ある政策に続くもので、国防全体のチームがAI技術を開発・使用する際の責任を理解するための重要なステップである。国防省のAI倫理原則の実施方法について明確な方向性を示し、安全で堅牢かつ効果的なAI対応能力を提供し、軍事的優位性を高めるために適切なレベルの人的監視を行う。
JSP 936 includes directives on governance, development and assurance throughout the AI lifecycle which encompasses quality, safety and security considerations. It draws on existing policies and best practices, bridging the gap between high-level ethical principles on the use of AI and their practical implementation, guiding the department to become fully AI-ready. JSP936は、品質、安全性、セキュリティを考慮したAIのライフサイクルを通じたガバナンス、開発、保証に関する指示を含んでいる。JSP936は、既存のポリシーとベスト・プラクティスを活用し、AIの使用に関するハイレベルな倫理原則とその実際的な実施とのギャップを埋め、AIに完全に対応できるように軍を導くものである。
We have a duty to make the best use of AI technologies to address threats to our national security and that of our allies, and to use these technologies safely and responsibly in line with our legal commitments and the values of the society we serve. By reading and understanding JSP 936 part 1, our industry partners can ensure that their projects are aligned with defence’s strategic goals, expectations on ethical AI, and technical requirements, ultimately fostering a more robust and collaborative AI ecosystem. われわれには、国家安全保障と同盟国に対する脅威に対処するためにAI技術を最大限に活用する義務があり、われわれの法的コミットメントとわれわれが奉仕する社会の価値観に沿って、これらの技術を安全かつ責任を持って使用する義務がある。JSP936パート1を読み、理解することで、我々の業界パートナーは、彼らのプロジェクトが防衛の戦略的目標、倫理的AIに関する期待、技術的要件に沿ったものであることを確認することができ、最終的には、より強固で協力的なAIエコシステムを育成することができる。

 

・[PDF] 

20241127-11041

・[DOCX][PDF] 仮訳

 

目次...

Foreword まえがき
Preface 序文
How to use this JSP このJSPの使い方
Coherence with other Policy and Guidance 他の政策やガイダンスとの一貫性
Training トレーニング
Further Advice and Feedback – Contacts その他のアドバイスとフィードバック - 連絡先
Contents 目次
1 Introduction 1 序文
Policy 方針
Scope スコープ
Applicability 適用性
Tailoring 仕立て
Delegation of Responsibilities 責任の委譲
Associated Standards and Guidance 関連標準とガイダンス
2 AI in Defence Systems 2 防衛システムにおけるAI
Introduction 序文
Robotic and Autonomous Systems ロボットと自律システム
Digital Systems デジタル・システム
3 Legal & Ethical Considerations of AI 3 AIの法的・倫理的考察
Introduction 序文
Legal Considerations 法的考察
Ethical Principles 倫理原則
Ethical Principles: Human Centricity 倫理原則人間中心主義
Ethical Principles: Responsibility 倫理的原則責任
Ethical Principles: Understanding 倫理的原則:理解する
Ethical Principles: Bias and Harm Mitigation 倫理的原則バイアスと被害の低減
Ethical Principles: Reliability 倫理的原則信頼性
Research and Development Ethics 研究開発倫理
AI Ethical Risk Assessment and Management AI倫理リスクアセスメントとマネジメント
Communication of AI Ethics AI倫理のコミュニケーション
4 AI Ethics Governance 4 AI倫理ガバナンス
MOD Governance of AI AIのMODガバナンス
Governance of Non-Sovereign AI Development and Use 非主権的AIの開発と利用のガバナンス
5 Human/AI Teams 5 人間/AIチーム
Introduction 序文
Human Centred AI Design 人間中心のAIデザイン
People Implications of AI Technologies AI技術が人々にもたらすもの
Training Implications of AI Technologies AI技術のトレーニングへの影響
6  AI Lifecycles 6 AIライフサイクル
Introduction 序文
Planning プランニング
Requirements 必要条件
Architecture アーキテクチャ
Algorithm Design アルゴリズム設計
Algorithm Implementation アルゴリズムの実装
Machine Learning Data Collection, Preparation and Control 機械学習データの収集、準備、管理
Model Development モデル開発
AI Verification and Validation AIの検証と妥当性確認
AI Integration, Use and Modification AIの統合、使用、修正
MOD Staff Competencies MODスタッフのコンピテンシー
7 Quality, Safety and Security 7 品質、安全、セキュリティ
Quality 品質
Safety 安全性
Security セキュリティ
8 Suppliers 8 サプライヤー
9 AI Assurance 9 AI保証
10 References 10 参考文献
11 Glossary 11 用語集

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2024.10.28 米国 ホワイトハウス 人工知能(AI)に関する国家安全保障覚書 (NSM) と 国家安全保障におけるAIガバナンスとリスクマネジメントを前進させる枠組み(2024.10.24)

・2024.09.16 米国 USCYBERCOM サイバー作戦のためのAIロードマップ (2023.09.13)

・2024.09.09 米国 国防総省 NSAのAI安全保障センター長の話...

・2024.03.28 米国 国防総省 国防高等研究計画局(DARPA)の重要な目標は、国防総省にとって信頼できる人工知能を開発することである。

・2023.11.29 米国 国防総省 AI導入戦略 (2023.11.02)

・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令

・2023.08.13 米国 国防総省 CDAOが国防総省の新しい生成的AIタスクフォース(タスクフォース・リマ)の指揮を執る

・2023.06.17 米国 国防総省 最高デジタル・AI室が第6回グローバル情報支配実験 (GIDE) を開催

 

| | Comments (0)

2024.11.08

オランダ データ保護局 意見募集 職場や教育における感情認識のための特定のAIシステムの禁止 (2024.10.31)

こんにちは、丸山満彦です。

オランダのデータ保護局が「職場や教育機関における感情認識のための特定のAIシステムの禁止」に関する意見募集をしていますね...

AI法の適用を見据えて、徐々にこのようなガイドが整備されていくのでしょうかね...

AI法第5条で禁止されるAIが8つ定義されています...

A:特定の操作型AIシステム(サブリミナル技術の利用等)
B:特定の搾取的AIシステム(個人や集団の弱みに漬け込む利用等)
C:ソーシャル・スコアを用いて作動する特定のAIシステム
D:個人による犯罪の可能性を予測する特定のAIシステム
E:顔画像の非標的スクレイピング
F:職場や教育における感情認識のための特定のAIシステム
G:生体認証による人物分類のための特定のAIシステム
H:法執行目的の公共の場における遠隔リアルタイム生体認証のための特定のAIシステム

このうち、

A:特定の操作型AIシステム(サブリミナル技術の利用等)
B:特定の搾取的AIシステム(個人や集団の弱みに漬け込む利用等)

についてのガイド案がすでに公開されていますが、

今回は、

F:職場や教育における感情認識のための特定のAIシステム

です。

 

● Autoriteit Persoonsgegevens

・2024.10.31 Call for input on prohibition on AI systems for emotion recognition in the areas of workplace or education institutions

・[PDF

20241108-00955

 

 

AI systems for emotion recognition in the areas of workplace or education institutions  職場や教育機構における感情認識のためのAIシステム
Prohibition in EU Regulation 2024/1689 (AI Act)  EU規則2024/1689(AI法)における禁止事項
Summary 概要
The European AI Act (2024/1689) has been in force since 1 August 2024 and regulates the use of artificial intelligence (AI) in the European Union (EU). The AI Act has a risk-based approach. As a result, certain AI systems posing an unacceptable risk are prohibited from 2 February 2025. 欧州AI法(2024/1689)は2024年8月1日から施行されており、欧州連合(EU)における人工知能(AI)の利用を規制している。AI法はリスクベースのアプローチを採用している。その結果、許容できないリスクをもたらす特定のAIシステムは2025年2月2日から禁止される。
It is up to the supervisors of the AI Act to explain how the prohibitions will be interpreted for the purpose of supervision. In order to prepare for this in the Netherlands, the Autoriteit Persoonsgegevens (AP) asks interested parties (citizens, governments, businesses and other organisations) and their representatives for needs, information and insights. We can use all input to consider the necessary further clarification of the prohibited AI systems. AI法の監督当局は、この禁止事項が監督上どのように解釈されるかを説明しなければならない。オランダでこれに備えるため、Autoriteit Persoonsgegevens(AP)は関係者(市民、政府、企業、その他の組織)やその代表者にニーズ、情報、洞察を求めている。私たちは、禁止されているAIシステムの必要なさらなる明確化を検討するために、すべての意見を利用することができる。
On 27 September 2024, the AP published the first call for input on the first two prohibitions of the AI Act. In this second call for input, we address the sixth prohibition: AI systems for emotion recognition in the areas of workplace or education institutions (prohibition F). Later on, we will ask for input on other prohibitions. This document outlines specific criteria for these prohibited AI systems while requesting (additional) input through a set of questions. Contributions can be submitted until 17 December 2024. 2024年9月27日、APはAI法の最初の2つの禁止事項に関する最初の意見募集を発表した。今回の2回目の意見募集では、第6の禁止事項を取り上げる: 職場や教育機構における感情認識のためのAIシステム(禁止事項F)である。後日、他の禁止事項についても意見を求める予定である。この文書では、これらの禁止されるAIシステムの具体的な規準の概要を示すとともに、一連の質問を通じて(追加の)意見を求める。意見は2024年12月17日まで提出できる。
The AP makes this call for input based on its role as a coordinating supervisor of algorithms and AI. For the purpose of this new task, the Department for the Coordination of Algorithmic Oversight (DCA) was established within the AP. This call for input also aligns with the preparatory work being done in support of future supervision of AI systems prohibited under the AI Act. The Dutch government is currently working on the formal designation of national supervisory authorities for the AI Act. APは、アルゴリズムとAIの調整監督者としての役割に基づき、この意見募集を行う。この新しい任務のために、AP内にアルゴリズム監督調整部(DCA)が設立された。この意見募集は、AI法で禁止されているAIシステムの将来の監督を支援するために行われている準備作業とも一致している。オランダ政府は現在、AI法の国内監督当局の正式認可に向けて作業を進めている。
I. Background I. 背景
1. The European AI Act (2024/1689) has been in force since 1 August 2024. This Regulation sets out rules for the provision and use of artificial intelligence (AI) in the EU. The premise of the AI Act is that while there are numerous beneficial applications of AI, the technology also entails risks that have to be managed. The legislation follows a risk-based approach. More restrictive rules will apply to those AI systems that pose a greater risk. Some systems entail such an unacceptable risk that their placing on the market or use is completely prohibited. This is, for example, the case with AI systems that are used for emotion recognition in the areas of workplace or education institutions. The prohibitions are set out in Article 5 of the AI Act. 1. 欧州AI法(2024/1689)は2024年8月1日より施行されている。この規則は、EUにおける人工知能(AI)の提供と利用に関する規則を定めたものである。AI法の前提は、AIには多くの有益な用途がある一方で、管理すべきリスクも伴うということである。この法律は、リスクベースのアプローチに従っている。より大きなリスクをもたらすAIシステムには、より厳しい規則が適用される。なかには、上市や使用が完全に禁止されるほどの許容できないリスクを伴うシステムもある。例えば、職場や教育機構の分野で感情認識に使用されるAIシステムがそうである。禁止事項はAI法第5条に定められている。
2. This call for input provides a preliminary basis for further clarification of the prohibitions in the AI Act. To get there, this call for input aims to gather generic information and insights on, among other things, the functioning of AI technologies and the application possibilities that are relevant to the clarification of the prohibitions. 2. この意見募集は、AI法の禁止事項をさらに明確にするための予備的根拠を提供するものである。そのために、この意見募集は、特に禁止事項の明確化に関連するAI技術の機能や応用の可能性に関する一般的な情報や見識を収集することを目的としている。
Prohibited AI applications as from February 2025 2025年2月から禁止されるAIアプリケーション
3. The prohibitions in the AI Act will become applicable soon. As from 2 February 2025, the prohibited AI systems listed in Article 5 may no longer be put on the European market or used. As from 2 August 2025, market surveillance authorities should be designated for prohibited AI systems, and sanctions may be imposed for violations of the prohibitions. Before this time, violation of one of the prohibitions could already lead to civil liability. 3. AI法の禁止事項が間もなく適用される。2025年2月2日以降、第5条に記載された禁止されたAIシステムは、もはや欧州市場に投入されたり、使用されたりすることはできない。2025年8月2日以降、禁止されたAIシステムについては市場監視当局が認可される必要があり、禁止事項に違反した場合には制裁が課される可能性がある。それ以前は、禁止事項のいずれかに違反した場合、すでに民事責任を問われる可能性がある。
Supervision in the Netherlands on compliance with the prohibitions オランダにおける禁止事項の遵守に関する監督
4. The Dutch government is currently working on legislation designating which supervisory authority will be responsible for overseeing compliance with the prohibitions. In the Netherlands, the AP (through its Department for the Coordination of Algorithmic Oversight) and the Dutch Authority Digital Infrastructure (RDI) provide advice on the supervisory framework for the purpose of the AI Act. They do so in cooperation and coordination with other supervisors. In a second interim advice, published in May 2024, the Dutch supervisors proposed to make the AP primarily responsible for the supervision of prohibited AI. Following these recommendations, the AP will closely cooperate with other relevant supervisors for the supervision of prohibited AI systems. 4. オランダ政府は現在、禁止事項の遵守を監督する責任を負う監督当局を指定する法制化に取り組んでいる。オランダでは、AP(アルゴリズム監督調整局を通じて)とオランダ認可デジタル・インフラ(RDI)がAI法の目的のために監督枠組みに関する助言を提供している。これらは、他の監督当局との協力・協調の下で行われている。2024年5月に公表された2回目の中間助言において、オランダの監督当局は、禁止されたAIの監督をAPが主に担当することを提案した。これらの勧告に従い、APは禁止されたAIシステムの監督について他の関連監督当局と緊密に協力する。



5. Because the prohibitions in this call concern AI systems that also fall under other Union laws, this call has been coordinated within the AI and Algorithm Group of the Dutch Cooperation Platform of Digital Supervisory authorities. This is in the spirit of the requirement in Article 70(8) of the AI Act to consult relevant national competent authorities responsible for other Union law that covers AI systems. 5. この要請における禁止事項は、他の連邦法にも該当するAIシステムに関するものであるため、この要請は、デジタル監督当局のオランダ協力プラットフォームのAI・アルゴリズムグループ内で調整されている。これは、AI法第70条8項が要求する、AIシステムを対象とする他の連邦法を担当する関連国の管轄当局と協議するという精神に則ったものである。
II. About this call for input II. この意見募集について
Purpose: why do we ask for input 目的:なぜ意見を求めるのか
6. It is up to the supervisors of the AI Act to explain how the prohibitions will be interpreted for the purpose of supervision. In preparation for this, the AP is asking for information and insights from stakeholders (citizens, governments, companies and other organisations) and their representatives. All responses can be used for further explanation of the prohibited AI. Within the AP, the Department for the Coordination of Algorithmic Oversight is charged with this task. 6. AI法の監督当局が、監督目的で禁止事項がどのように解釈されるかを説明する次第である。その準備のため、APは利害関係者(市民、政府、企業、その他の組織)およびその代表者からの情報と洞察を求めている。すべての回答は、禁止されているAIのさらなる説明に利用することができる。AP内では、アルゴリズム監督調整部がこの任務を担っている。
7. This call for input discusses the prohibition outlined in Article 5, paragraph 1 subparagraph f of the AI Act. In addition to this call for input, the AP already published a first call on 27 September 2024 on two other prohibitions, namely the prohibition on manipulative and deceptive AI systems and the prohibition on exploitative AI systems. 7. この意見募集では、AI法第5条第1項f号に概説される禁止事項について議論する。この意見募集に加え、APはすでに2024年9月27日に、他の2つの禁止事項、すなわち、操作的で欺瞞的なAIシステムの禁止と搾取的なAIシステムの禁止に関する最初の意見募集を発表している。
8. The legislative text and the recitals serve as the foundations for this call for input. Given the scope and possible impact of this prohibition, a call for input is issued for this prohibition. Please refer to the annex to this document for an overview of all prohibitions in subparagraphs (a) to (g) of Article 5, paragraph 1 of the AI Act. 8. 立法文書とリサイタルは、この意見募集の基礎となるものである。この禁止事項の範囲と起こりうる影響を考慮し、この禁止事項に関する意見募集を行う。AI法第5条第1項第(a)号から第(g)号までのすべての禁止事項の概要については、本書の附属書を参照のこと。
9. This call for input highlights specific aspects of this prohibition. The focus is on those specific criteria that determine whether or not an AI system is within the scope of this prohibition. Each criterion is briefly explained based on the legislator’s recitals of the AI Act. In some cases, we provide an interpretation of our own. This is explicitly mentioned. We then pose several questions, the answers to which will contribute to a better understanding of the prohibition. 9. 本意見募集は、この禁止事項の特定の側面に焦点を当てたものである。AIシステムが本禁止の範囲に含まれるか否かを判断する具体的な規準に焦点を当てる。各基準は、AI法の立法者の説明に基づいて簡潔に説明されている。場合によっては、独自の解釈を提供することもある。これについては明確に言及する。その後、いくつかの質問を投げかけ、その回答は禁止事項のより良い理解に資するものである。
Process: this is how you send your input to us プロセス:これは、あなたが私たちに意見を送る方法である
10. You decide which questions you answer. You can also provide us with other relevant input in addition to the questions asked. Please send your input by email to dca@autoriteitpersoonsgegevens.nl by 17 December 2024. Please mention the topic “Call for input DCA-2024-02 AI systems for emotion recognition in the areas of workplace or education institutions”, and your name and/or your organisation in your email. If desirable, you can provide us with your contact details so that we can reach you when we have further questions. When we have received your input, we will send a confirmation by email. 10. どの質問に答えるかはあなたが決める。また、質問以外にも関連する意見をプロバイダに提供することができる。2024年12月17日までに、dca@autoriteitpersoonsgegevens.nl。その際、「Call for input DCA-2024-02 AI systems for emotion recognition in areas of workplace or education institutions」(職場や教育機関における感情認識のためのAIシステム)というトピックと、あなたの氏名または所属する組織を明記してください。また、ご希望であれば、ご連絡先をご記入いただければ、ご質問の際にご連絡を差し上げることができる。入力が確認されたら、Eメールにて確認のご連絡を差し上げる。
Follow-up: what do we do with your input? フォローアップ:あなたの意見をどうするか?
11. After the closure of this call for input, the AP will publish a summary and appreciation of the input on AI systems for emotion recognition in the areas of workplace or education institutions. In this summary, we will refer in generic terms to the input received (e.g., “several sectoral representative organisations have indicated’, “a developer of AI systems points out that”, “organisations advocating for fundamental rights note that”). If preferred and indicated by you, we may explicitly name your organisation or group. Through our summarised and evaluative response, we can also share the acquired insights with other (European) AI supervisory authorities. For instance, the summary and appreciation of the contribution may be utilised in the drafting of guidelines on the prohibitions. At a European level, the AI Office - part of the European Commission- can collaborate with the market surveillance authorities to develop such guidelines. 11. 本意見募集の終了後、APは、職場や教育機構の分野における感情認識AIシステムに関する意見の要約と評価を公表する。この要約では、寄せられた意見について一般的な用語で言及する(例えば、「いくつかの分野の代表者組織からの指摘」、「AIシステムの開発者からの指摘」、「基本的権利を擁護する組織からの指摘」など)。ご希望があれば、またご指摘があれば、あなたの組織や団体名を明示することもある。また、要約・評価した回答を通じて、得られた知見を他の(欧州の)AI監督当局と共有することもできる。例えば、禁止事項に関するガイドラインのドラフトを作成する際に、寄稿の要約と評価を活用することができる。欧州レベルでは、欧州委員会の一部であるAI事務局は、市場監視当局と協力して、そのようなガイドラインを作成することができる。
12. We will only use your input for our task to obtain information and insights about the prohibitions in the AI Act. We will delete your personal data after publication of our summary and evaluation of the input, unless you have given permission for further use. For more information about how we process personal data, please see: The AP and privacy. 12. 当社は、AI法の禁止事項に関する情報や見識を得るという当社の任務のためにのみ、あなたの意見を使用する。ご意見の要約と評価を公表した後、それ以上の使用についてご本人の許可がない限り、個人データを削除する。当社がどのように個人データを処理するかについての詳細は、以下を参照のこと: APとプライバシー。
More calls for input インプットのさらなる募集
13. Following this call, there will be more calls for input on other parts of the AI Act, including other prohibitions. The AP has previously called for input for manipulative, misleading and exploitative AI systems. In the short term, the AP wants to publish a call for input on prohibition C: AI systems for social scoring. 13. 今回の呼びかけに続き、他の禁止事項を含むAI法の他の部分についても意見募集を行う予定である。APはこれまでにも、操作的、誤解を招く、搾取的なAIシステムについての意見を求めてきた。短期的には、APは禁止事項C「ソーシャル・スコアリングのためのAIシステム」に関する意見募集を公表したいと考えている。
III. Definition of the prohibition on AI systems for emotion recognition in the areas of workplace or education institutions III. 職場や教育機構における感情認識AIシステム禁止の定義
General scope of prohibited AI systems 禁止されるAIシステムの一般的範囲
14. The AI Act (and its prohibitions) apply to ‘AI systems’. Thus, in order to determine whether the Regulation applies, an important question is whether the product falls within the definition of an AI system: 14. AI法(およびその禁止事項)は「AIシステム」に適用される。したがって、本規則が適用されるかどうかを判断するためには、その製品がAIシステムの定義に該当するかどうかが重要な問題となる:
“A machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.” 「様々なレベルの自律性で動作するように設計され、展開後に適応性を示す可能性があり、明示的または暗黙的な目的のために、物理的または仮想的環境に影響を与えることができる予測、コンテンツ、推奨、決定などの出力を生成する方法を、受け取った入力から推測する機械ベースのシステム」。
15. The prohibitions are addressed to providers (e.g. developers), deployers, importers, distributors and other operators. These operators shall not place on the market, put into service or use the prohibited AI systems. Therefore, it is important for the above operators to ensure that they do not place on the market or use a prohibited AI system. To do so, they will have to verify whether the AI system in question falls under the prohibitions in Article 5. 15. この禁止事項は、プロバイダ(開発者など)、展開事業者、輸入事業者、頒布事業者、その他の事業者を対象としている。これらの事業者は、禁止されているAIシステムを上市、サービス開始、使用してはならない。したがって、上記の事業者は、禁止されているAIシステムを上市したり、使用したりしないようにすることが重要である。そのためには、当該AIシステムが第5条の禁止事項に該当するか否かを確認する必要がある。
Content of the prohibition 禁止事項の内容
16. This call for input focuses on the prohibition set out in subparagraph (f) of Article 5, paragraph 1. The AI Act prohibits AI systems used to infer emotions from a natural person in the areas of workplace or education institutions based on biometric data (hereinafter: emotion recognition systems). In the remainder of this call for input, we will refer to this prohibition as ‘prohibition F’. The Regulation defines this prohibition as follows: 16. 今回の意見募集では、第5条第1項(f)号の禁止事項に焦点を当てる。AI法は、職場や教育機関などの分野において、生体データに基づいて自然人の感情を推測するAIシステム(以下、感情認識システム)を禁止している。本意見募集では、この禁止事項を「禁止事項F」と呼ぶ。規則では、この禁止事項を以下のように定義している:
Article 5, paragraph 1, subparagraph f (‘prohibition F’): 第5条第1項f号(「禁止F」):
“The placing on the market, the putting into service for this specific purpose, or the use of AI systems to infer emotions of a natural person in the areas of workplace and education institutions, except where the use of the AI system is intended to be put in place or into the market for medical or safety reasons;” 「職場および教育機構の分野における自然人の感情を推測するためのAIシステムの上市、この特定目的のための使用、または使用は、医療上または安全上の理由からAIシステムの使用が意図され、または上市される場合を除く」
17. The AI Act contains a definition of the concept of an ‘emotion recognition system’, which includes not only the inference but also the identification of emotions and intentions. It is therefore assumed that the prohibition involves both the inference and the identification of emotions and intentions based on biometric data. The AI Act defines an ‘emotion recognition system’ as follows: 17。AI法には、「感情認識システム」という概念の定義があり、そこには、推論だけでなく、感情や意思の識別も含まれている。したがって、生体データに基づく感情や意思の推論と識別の両方が禁止に含まれると考えられる。AI法は「感情認識システム」を以下のように定義している:
“An AI system intended to identify or infer the emotions or intentions of natural persons based on their biometric data.” 「生体データに基づいて、自然人の感情または意図を識別または推論することを目的とするAIシステム」。
18. It is important to note that AI systems for emotion recognition that are not put into use in the areas of workplace or educational institutions qualify as ‘high risk’. If AI systems intended to be used for emotion recognition qualify as high-risk under Annex III, paragraph 1, subparagraph c, the requirements applicable to these systems will have to be complied with. In addition, users of a system for emotion recognition are subject to specific transparency obligations. These are defined in Article 50(3) of the AI Act. 18. 注意すべきは、職場や教育機関の分野で使用されない感情認識のためのAIシステムは、「ハイリスク」と認定されることである。感情認識に使用されることを意図したAIシステムが附属書III第1項cのハイリスクに該当する場合、これらのシステムに適用される要件に従わなければならない。さらに、感情認識システムの利用者は、特定の透明性義務を負う。これらはAI法第50条第3項に定義されている。
19. Finally, the AI Act is without prejudice to the GDPR. Obligations of providers and deployers of AI systems in their role as controllers or processors stemming from Union or national law on the protection of personal data continue to apply in the design, development or use of AI systems. 19. 最後に、AI法はGDPRを妨げるものではない。AIシステムのプロバイダおよび展開者は、個人データ保護に関する連邦法または国内法に由来する管理者または処理者としての役割を果たす義務が、AIシステムの設計、開発、使用において引き続き適用される。
IV. Criteria and questions regarding the prohibition IV. 禁止に関する規準と質問
20. In order to structure this call for input, separate criteria of the prohibition have been set out in more detail in the next section. These criteria are highlighted because they are important conditions for determining whether or not AI systems are covered by prohibition F. A brief explanation is provided for each criterion, based on the explanation provided by the legislator in the explanatory recitals to the AI Act. In some cases, explanations are based on the AP's own interpretation; this is clearly indicated. This is followed by some accompanying questions that you can use when giving your input. 20. この意見募集を構成するために、禁止事項の個別の規準が次のセクションで詳細に示されている。これらの規準は、AIシステムが禁止事項Fの対象となるか否かを判断するための重要な条件であるため、強調されている。各規準については、AI法の説明の中で立法者が提供した説明に基づき、簡単な説明がなされている。場合によっては、AP独自の解釈に基づく説明もあるが、これは明確に示されている。続いて、意見を述べる際に利用できる付随的な質問をいくつか示す。
Criterion 1: inference and identification of emotions and intentions 規準1:感情や意図の推論と特定
21. The prohibition applies where emotions or intentions of natural persons are inferred. It follows from the definition of an ‘emotion recognition system’ that, in addition to inference, it includes the identification of emotions and intentions. The AP therefore assumes that both the inference and the identification of emotions and intentions are covered by the prohibition. 21. 禁止事項は、自然人の感情や意図が推測される場合に適用される。感情認識システム」の定義から、推論に加え、感情や意図の特定も含まれる。したがってAPは、感情や意図の推論と識別の両方が禁止事項の対象であるとする。
Questions related to criterion 1 規準1に関する質問
1. Can you describe AI systems used to infer or identify emotions or intentions? 1. 感情や意図を推論または特定するために使用されるAIシステムについて説明できるか。
2. Is it clear to you when a system is aiming to infer or identify emotions or intentions? If not, what part asks for more clarity? Can you elaborate on this? 2. システムが感情や意図を推論したり識別したりすることを目的としている場合、それがどのような場合であるかは明らかか。そうでない場合、どの部分がより明確であることを求めているか?詳しく説明してくれる?
Criterion 2: emotions or intentions 規準2:感情または意図
22. The prohibition applies to the emotions or intentions of natural persons. The recitals describe emotions or intentions such as happiness, sadness, anger, surprise, disgust, embarrassment, excitement, shame, contempt, satisfaction and amusement. The prohibition does not include the detection of readily apparent expressions, gestures or movements, unless they are used to identify or infer emotions. These expressions can be basic facial expressions, such as a frown or smile. Such expressions can also be gestures such as the movement of hands, arms or head, or characteristics of a person's voice, such as a raised voice or whispering tone. 22. 禁止は自然人の感情または意図に適用される。朗読では、喜び、悲しみ、怒り、驚き、嫌悪、恥ずかしさ、興奮、恥、軽蔑、満足、娯楽などの感情や意図が述べられている。この禁止には、感情を識別または推論するために使用されるのでない限り、容易に見て取れる表情、身振り、動作の検知は含まれない。これらの表情は、しかめっ面や微笑みといった基本的な顔の表情でありうる。このような表情は、手、腕、頭の動きのようなジェスチャーや、高めの声やささやき声のような人の声の特徴であることもある。
23. The prohibition shall not apply to physical states such as pain or fatigue. This could include systems used to detect the state of fatigue of professional pilots or professional drivers in order to prevent accidents. AI systems that detect such states are outside the scope of the prohibition. 23. この禁止は、痛みや疲労といった身体的状態には適用されない。これには、事故を防ぐためにプロのパイロットやプロのドライバーの疲労状態を検知するためのシステムも含まれる。このような状態を検知するAIシステムは、禁止の範囲外である。
Questions related to criterion 2 規準2に関する質問
3. Can you give examples of other types of emotions or intentions that can be inferred or identified with the use of AI systems? 3. AIシステムの使用によって推測または識別できる他の種類の感情または意図の例を挙げることができるか。
4. Can you describe situations in which AI systems can be used to infer or identify physical states? In that case, are emotions or intentions also inferred or identified? Is the difference between emotions and intentions on the one hand and physical states on the other hand sufficiently clear to you? 4. AIシステムを使用して物理的状態を推測または特定できる状況を説明できるか。その場合、感情や意図も推論されたり識別されたりするのか?一方の感情や意図と他方の物理的状態の違いは、あなたにとって十分に明確か?
5. Can you describe AI systems used to detect readily apparent expressions, gestures or movements? Do you know of situations where the detection of expressions, gestures or movements can be used to identify or infer emotions or intentions? 5. すぐにわかる表情、ジェスチャー、動きを検知するために使われるAIシステムについて説明できるか?表情、ジェスチャー、動きの検知が、感情や意図の識別や推論に利用できる状況を知っているか?
6. Is it clear to you when an AI system infers or identifies emotions or intentions or other states? What questions or need for clarification do you have in the context of this prohibition? 6. AIシステムが感情や意図、あるいはその他の状態を推論したり識別したりするのは、どのような場合か明確か。この禁止事項に関して、どのような疑問や明確化の必要性があるか。
Criterion 3: on the basis of biometric data 規準3:生体データに基づいて
24. The prohibition applies to AI systems that use human biometric data to identify or infer emotions. Biometric data is defined in the AI Act “as personal data resulting from specific technical processing relating to the physical, physiological or behavioural characteristics of a natural person, such as facial images or dactyloscopic data”. However, as stated in the recitals, the concept of biometric data in the AI Act must be interpreted “in the light of” the concept of biometric data in the GDPR. Importantly, biometric data as defined in the AI Act (among others) enables the recognition of emotions of natural persons. 24. この禁止は、人間の生体データを使用して感情を識別または推論するAIシステムに適用される。生体データは、AI法では「顔画像やダクティロスコピックデータなど、自然人の身体的、生理的、行動的特徴に関連する特定の技術仕様から生じる個人データ」と定義されている。しかし、説明文にあるように、AI法における生体データの概念は、GDPRにおける生体データの概念に「照らして」解釈されなければならない。重要なことは、AI法に定義されている生体データ(とりわけ)は、自然人の感情の認識を可能にするということである。
Questions related to criterion 3 規準3に関連する質問
7. What kind of biometric data can be used in these AI systems intended to infer or detect emotions? 7.感情を推測または検出することを意図したこれらのAIシステムでは、どのような生体データを使用できるのか?
8. In your opinion, how does biometric data form the basis for inferring or identifying emotions in practice? Can you indicate how this process works and illustrate this with (imaginary) examples? 8. 生体データは、実際にどのように感情を推測または識別するための基礎となるのか。このプロセスがどのように機能するかを示し、(想像上の)例で説明できるか。
Criterion 4: the areas of workplace or education institutions 規準4:職場または教育機構の領域
25. Prohibition F states that an AI system for emotion recognition must infer emotions of natural persons in the areas of workplace and education institutions. An AI system for emotion recognition in situations related to the workplace and education is also covered by this prohibition. Here, too, there are the same unfair power relations and AI systems for emotion recognition can, taking into account the far-reaching nature of these types of systems, lead to detrimental or unfavourable treatment of certain people or whole groups thereof. It can be assumed that the application of emotion recognition in, for example, home working environments, or in online or distance learning, therefore also falls within the scope of the prohibition. This also applies to the application of emotion recognition for recruitment and selection or application for education. 25. 禁止事項Fでは、感情認識AIシステムは、職場や教育機関の領域において、自然人の感情を推論しなければならないとされている。職場や教育に関連する場面での感情認識AIシステムも、この禁止事項の対象となる。ここでも、同じように不公正な力関係が存在し、感情認識のためのAIシステムは、この種のシステムの広範な性質を考慮すると、特定の人々やその集団全体に不利益や不利な取り扱いをもたらす可能性がある。したがって、たとえば在宅勤務環境やオンライン学習、遠隔学習における感情認識の適用も、禁止事項の範囲に含まれると考えられる。これは、採用選考や教育への応募のための感情認識の適用にも適用される。
Questions related to criterion 4 規準4に関連する質問
9. Can you describe AI systems used for emotion recognition in, or related to, areas of workplace? 9. 職場の領域で、または職場に関連する領域で、感情認識に使用される AI システムを説明できるか。
10. Can you describe AI systems used for emotion recognition in, or related to, education institutions? 10. 教育機関において、または教育機関に関連して、感情認識に用いられるAIシステムについて説明できるか。
11. What questions or need for clarification do you still have in the context of this prohibition regarding criterion 4? 11. 本禁止事項のうち、基準4に関して、まだ不明な点や明確化すべき点があるか。
Scope of the prohibition 禁止事項の範囲
26. Finally, it is important to emphasise the scope of prohibition F. The prohibition should not apply to the placing on the market, putting into service or use of AI systems intended to be used for medical or safety reasons. The recitals of the AI Act stress that these are AI systems used strictly for medical or safety reasons. For example, a system intended for therapeutical use. 26. 最後に、禁止事項Fの範囲について強調しておきたい。この禁止事項は、医療または安全のために使用されることを意図したAIシステムの上市、使用開始、使用には適用されるべきではない。AI法のリサイタルは、医療または安全上の理由で厳密に使用されるAIシステムであることを強調している。例えば、治療目的のシステムなどである。
Questions related to criterion 5 規準5に関連する質問
12. Can you describe an AI system for emotion recognition deployed in the areas of workplace or in education institutions for medical reasons? 12. 医療上の理由から、職場や教育機構で展開される感情認識AIシステムについて説明できるか。
13. How can AI systems for emotion recognition be deployed in the areas of workplace or in education institutions for safety reasons? Can you think of any examples? 13. 職場や教育機関において、安全面を考慮した感情認識AIシステムはどのように展開できるか。また、そのような事例を思いつくか。
14. What further questions or clarifications do you have about the scope of this prohibition? 14. この禁止事項の範囲について、さらに質問や説明があれば教えてほしい。
27. In conclusion, it is stressed that this document does not cover all aspects of the prohibition. Therefore, interested parties are expressly invited to provide relevant input, also outside the questions asked, for further clarification of prohibition F. 27. 結論として、この文書は禁止事項のすべての側面を網羅しているわけではないことを強調する。したがって、利害関係者は、禁止事項Fのさらなる明確化のため、質問以外の関連する意見を提供するよう明示的に要請される。
Concluding questions 締めくくりの質問
15. Apart from the questions posed, is there any relevant input that you would like to provide for the further clarification of prohibition F? 15. 提示された質問以外に、禁止事項Fの更なる明確化のために提供したい関連するインプットはあるか?
16. Do you think it is desirable that we explicitly mention your organisation or group in our public response and appreciation to this call for input, e.g. so that we can discuss examples and considerations that you provide? 16. この意見募集に対する私たちの公的な回答および謝辞の中で、あなたの組織または団体について明示的に言及することが望ましいと思われるか。
Annex: overview of prohibitions from Article 5, paragraph 1 of the AI Act 2024/1689 附属書:AI法2024/1689第5条第1項による禁止事項の概要
Prohibition A: Certain manipulative AI systems 禁止事項A: ある種の操作的なAIシステム
AI systems that deploy subliminal techniques beyond a person’s consciousness or purposefully manipulative or deceptive techniques, with the objective, or the effect of materially distorting the behaviour of a person or a group of persons by appreciably impairing their ability to make an informed decision, thereby causing them to take a decision that they would not have otherwise taken in a manner that causes or is reasonably likely to cause that person, another person or group of persons significant harm. 人の意識を超えたサブリミナル的な技法、または意図的に操作的もしくは欺瞞的な技法を展開するAIシステムであって、その目的または効果が、十分な情報に基づいた意思決定を行う能力を著しく損なうことによって、人または人の集団の行動を実質的に歪め、それによって、その人、他の人または人の集団に重大な危害をもたらす、またはもたらす可能性が合理的に高い方法で、他の方法では行わなかったであろう意思決定を行わせるもの。
Prohibition B: Certain exploitative AI systems 禁止事項B:特定の搾取的AIシステム
AI systems that exploit any of the vulnerabilities of a natural person or a specific group of persons due to their age, disability or a specific social or economic situation, with the objective, or the effect, of materially distorting the behaviour of that person or a person belonging to that group in a manner that causes or is reasonably likely to cause that person or another person significant harm. 自然人または特定の集団の年齢、障害または特定の社会的もしくは経済的状況に起因する脆弱性を悪用するAIシステムであって、その人またはその集団に属する人の行動を、その人またはその集団に属する人に重大な危害をもたらすか、またはもたらす可能性が合理的に高い方法で、実質的に歪めることを目的とし、またはその効果を有するもの。
Prohibition C: Certain AI systems for social scoring 禁止事項C:社会的スコアリングのための特定のAIシステム
AI systems for the evaluation or classification of natural persons or groups of persons over a certain period of time based on their social behaviour or known, inferred or predicted personal or personality characteristics, with the social score leading to either or both of the following: 自然人または集団の社会的行動または既知、推論もしくは予測される個人的もしくは人格的特性に基づいて、一定期間にわたって評価または分類するためのAIシステムであって、社会的スコアが以下のいずれかまたは両方につながるもの:
• detrimental or unfavourable treatment of certain natural persons or groups of persons in social contexts that are unrelated to the contexts in which the data was originally generated or collected; •  データが元々生成または収集された文脈とは無関係な社会的文脈において、特定の自然人または集団が不利益または不利な扱いを受けること;
• detrimental or unfavourable treatment of certain natural persons or groups of persons that is unjustified or disproportionate to their social behaviour or its gravity. •  社会的行動またはその重大性に不当または不釣り合いな,特定の自然人または集団に対する不利益または不利な取り扱い。
Prohibition D: Certain AI systems for predictive policing 禁止事項D:予測的取り締まりのための特定のAIシステム
AI systems for making risk assessments of natural persons in order to assess or predict the risk of a natural person committing a criminal offence, based solely on the profiling of a natural person or on assessing their personality traits and characteristics; this prohibition shall not apply to AI systems used to support the human assessment of the involvement of a person in a criminal activity, which is already based on objective and verifiable facts directly linked to a criminal activity. 自然人が犯罪を犯すリスクを評価または予測するために、自然人のプロファイリングまたは人格的特徴および特性の評価のみに基づいて、自然人のリスクアセスメントを行うためのAIシステム。この禁止は、犯罪活動に直接関連する客観的かつ検証可能な事実に既に基づいている、犯罪活動への人の関与に関する人間の評価を支援するために使用されるAIシステムには適用されない。
Prohibition E: Untargeted scraping of facial images 禁止事項E.顔画像の非対象スクレイピング
AI systems that create or expand facial recognition databases through the untargeted scraping of facial images from the internet or CCTV footage. インターネットやCCTV映像から顔画像を非対象にスクレイピングすることにより、顔認識データベースを作成または拡張するAIシステム。
Prohibition F: Certain AI systems for emotion recognition in the workplace or in education 禁止事項F:職場や教育機関における感情認識のための特定のAIシステム
AI systems that infer emotions of a natural person in the areas of workplace and education institutions, except where the use of the AI system is intended to be put in place or into the market for medical or safety reasons. 職場や教育機構の分野における自然人の感情を推論するAIシステム。ただし、医療上または安全上の理由からAIシステムの導入または市場投入が意図されている場合を除く。
Prohibition G: Certain AI systems for biometric categorisation of persons 禁止事項G:人物の生体データ分類のための特定のAIシステム
AI systems for biometric categorisation that categorise individually natural persons based on their biometric data to deduce or infer their race, political opinions, trade union membership, religious or philosophical beliefs, sex life or sexual orientation; this prohibition does not cover any labelling or filtering of lawfully acquired biometric datasets, such as images, based on biometric data or categorising of biometric data in the area of law enforcement. 人種、政治的意見、労働組合員、宗教的または哲学的信条、性生活または性的指向を推測または推論するために、生体データに基づいて個々の自然人を分類する生体データ分類のためのAIシステム。この禁止は、合法的に取得された生体データセット(画像など)を生体データに基づいてラベリングまたはフィルタリングしたり、法執行の分野で生体データを分類したりすることは対象としない。
Prohibition H: Certain AI systems for real-time remote biometric identification in publicly accessible spaces for purpose of law enforcement 禁止事項H:法執行を目的とした、一般にアクセス可能な空間におけるリアルタイムの遠隔バイオメトリッ ク識別のための特定のAIシステム
AI-systems used for of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement, unless and in so far as such use is strictly necessary for one of the following objectives: 法執行を目的とした、一般にアクセス可能な空間における「リアルタイムの」遠隔バイオメトリッ ク識別システムのために使用されるAIシステムは、そのような使用が以下のいずれかの目的の ために厳密に必要である場合を除く:
• the targeted search for specific victims of abduction, trafficking in human beings or sexual exploitation of human beings, as well as the search for missing persons; • 誘拐,人身売買,性的搾取の特定の被害者,および行方不明者の捜索。
• the prevention of a specific, substantial and imminent threat to the life or physical safety of natural persons or a genuine and present or genuine and foreseeable threat of a terrorist attack; • 自然人の生命または身体の安全に対する特定の、実質的かつ差し迫った脅威、または真正かつ現在の、または真正かつ予見可能なテロ攻撃の脅威の防止;
• the localisation or identification of a person suspected of having committed a criminal offence, for the purpose of conducting a criminal investigation or prosecution or executing a criminal penalty for offences referred to in Annex II and punishable in the Member State concerned by a custodial sentence or a detention order for a maximum period of at least four years. • 附属書IIに規定され,かつ,当該加盟国において少なくとも4年の拘禁刑または拘禁令によって処罰される犯罪について,犯罪捜査または訴追を行い,または刑事罰を執行する目的で,犯罪を犯したと疑われる者を特定または識別すること。
Point (h) of the first subparagraph is without prejudice to Article 9 of Regulation (EU) 2016/679 for the processing of biometric data for purposes other than law enforcement. 第1号の(h)点は、法執行以外の目的での生体データの処理に関する規則(EU)2016/679の第9条を損なうものではない。

 

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

・2024.10.30 オランダ 会計検査院 政府はAIのリスクアセスメントをほとんど実施していない...

・2024.10.18 オランダ AI利用ガイド (2024.10.16)

・2024.09.29 オランダ データ保護局 意見募集 「操作的欺瞞的、搾取的なAIシステム」

・2024.09.05 オランダ データ保護局 顔認識のための違法なデータ収集でClearviewに3,050万ユーロ(48.5億円)

・2024.08.28 オランダ データ保護局 ドライバーデータの米国への転送を理由にUberに2億9000万ユーロ(467億円)の罰金

・2024.08.12 オランダ データ保護局が注意喚起:AIチャットボットの使用はデータ漏洩につながる可能性がある

・2024.08.11 オランダ AI影響アセスメント (2023.03.02)

・2024.08.05 欧州AI法が施行された... (2024.08.01)

 

 

| | Comments (0)

2024.10.16

韓国 移動型映像情報処理機器のための個人映像情報保護・活用ガイドを発表 (2024.10.14)

こんにちは、丸山満彦です。

韓国の個人情報保護委員会が、自動車やドローンのための個人映像情報保護・活用ガイドを公表していますね...

韓国語で105ページのPDFなので、読めていませんが...

 

개인정보위

・2024.10.14 자율주행 인공지능(AI) 발전을 위한 개인영상정보 보호ㆍ활용 기준 나왔다

자율주행 인공지능(AI) 발전을 위한 개인영상정보 보호ㆍ활용 기준 나왔다 自動運転人工知能(AI)発展のための個人映像情報保護・活用基準を発表
- 개인정보위, 「이동형 영상정보처리기기를 위한 개인영상정보 보호ㆍ활용 안내서」 공개 ・個人情報委員会,「移動型映像情報処理機器のための個人映像情報保護・活用ガイド」公開
- 신기술에 따른 개인정보 침해 우려 해소 및 첨단 모빌리티 산업 경쟁력 강화 기대 ・新技術による個人情報侵害の懸念解消及び先端モビリティ産業の競争力強化に期待
  자율주행차·배달로봇에 달린 카메라 등 이동형 영상정보처리기기로 개인영상정보*를 촬영해 자율주행 인공지능(AI) 개발에 활용하기 위해서는 해당 차량이나 로봇 외부에 촬영사실과 구체적인 내용을 표시하여야 한다. 自動運転車・配送ロボットに取り付けられたカメラなど移動型映像情報処理機器で個人映像情報*を撮影して自動運転人工知能(AI)開発に活用するためには、当該車両やロボットの外部に撮影事実と具体的な内容を表示しなければならない。
   * 「개인정보 보호법」 제2조제1호에 따른 개인정보 중 개인을 알아볼 수 있는 영상을 말함 * 「個人情報保護法」第2条第1号に基づく個人情報のうち、個人を識別できる映像を指す。
  인공지능(AI) 개발 기업들이 자율주행차, 배달로봇 등의 이동형 영상정보처리기기에서 촬영된 영상을 인공지능(AI) 개발 등에 활용할 수 있도록 하는 개인영상정보 보호․활용 기준이 나왔다. 人工知能(AI)開発企業が自動運転車、配達ロボットなどの移動型映像情報処理機器で撮影された映像を人工知能(AI)開発などに活用できるようにする個人映像情報保護・活用基準が出た。
  개인정보보호위원회(위원장 고학수, 이하 ‘개인정보위’)가 지난해 9월 「개인정보 보호법」에 신설된 이동형 영상정보처리기기 조항(제25조의2)의 구체적 적용 기준과 산업계 문의사례 등을 반영해 「이동형 영상정보처리기기를 위한 개인영상정보 보호ㆍ활용 안내서」(이하 ‘안내서’)를 공개했다. 個人情報保護委員会(委員長コ・ハクス、以下「個人情報委員会」)が昨年9月に「個人情報保護法」に新設された移動型映像情報処理機器条項(第25条の2)の具体的な適用基準と産業界の問い合わせ事例などを反映して「移動型映像情報処理機器のための個人映像情報保護・活用ガイド」(以下「ガイド」)を公開した。
  그간 도로, 공원 등의 공개된 장소에서 이동형 영상정보처리기기를 통해 촬영된 영상은 자율주행 인공지능(AI) 개발에 필수적인 요소이나, 해당 영상에는 개인을 식별할 수 있는 개인정보(얼굴 영상 등)가 포함되어 있어 인공지능(AI) 개발 등에 활용할 수 있는 구체적인 기준 마련이 요구되어 왔다. これまで道路、公園などの公開された場所で移動型映像情報処理機器を通じて撮影された映像は、自動運転人工知能(AI)開発に必須的な要素であるが、当該映像には個人を識別できる個人情報(顔映像など)が含まれており、人工知能(AI)開発などに活用できる具体的な基準の策定が求められてきた。
  이에 개인정보위는 지난 3월부터 학계, 법조계, 산업계 등의 전문가가 참여하는 연구반을 구성하여, 다양한 이동형 영상정보처리기기의 특성에 맞는 표준화된 촬영사실 표시 방법, 영상 촬영 시 부당한 권리침해 우려에 대한 판단 기준, 촬영된 영상의 처리 단계별(촬영, 이용, 제공, 보관, 파기 등)로 개인정보 보호를 위해 준수해야 할 사항 등을 반영한 안내서를 마련하였다. これに対し、個人情報委員会は去る3月から学界、法曹界、産業界などの専門家が参加する研究班を構成し、様々な移動型映像情報処理機器の特性に合わせた標準化された撮影事実の表示方法、映像撮影時の不当な権利侵害の懸念に対する判断基準、撮影された映像の処理段階別(撮影、利用、提供、保管、破棄など)に個人情報保護のために遵守すべき事項などを反映したガイドを作成した。
  이번에 공개된 안내서의 주요 내용은 아래와 같다. 今回公開されたガイドの主な内容は以下の通りである。
【 ① 개인영상정보 보호ㆍ활용을 위한 8대 기본 원칙 】 【 ①個人映像情報の保護・活用のための8大基本原則 】。
  이동형 영상정보처리기기의 특성*과 해외 주요국 가이드라인 사례**를 고려하여 영상기기운영자 등이 업무를 목적으로 개인영상정보를 처리하는 과정에서 준수해야 할 8대 기본원칙을 제시하였다. 移動型映像情報処理機器の特性*と海外主要国のガイドライン事例**を考慮し、映像機器運営者などが業務を目的として個人映像情報を処理する過程で遵守すべき8つの基本原則を提示した。
   * ① 촬영 대상 및 범위를 특정할 수 없어 사전적 권리보장 곤란, ② 정보주체가 촬영 사실을 알기 어려워 사후적 권리행사 제한, ③ 사생활 침해 가능성 등 * ①撮影対象及び範囲を特定することができず、事前の権利保障が困難、②情報主体が撮影事実を知ることが難しく、事後的な権利行使の制限、③プライバシー侵害の可能性など。
  ** 미국, 유럽연합(EU), 영국 등의 자율주행차, 드론 관련한 개인정보 처리 가이드라인 다수 참조 ** 米国、欧州連合(EU)、英国などの自動運転車、ドローン関連の個人情報処理ガイドラインを多数参照。
〈 8대 기본원칙 〉 8大基本原則
① 비례성 : 개인영상정보의 처리 목적이 정당하고 수단이 적정한지, 예상되는 편익에 비하여 권리침해 위험이 과도한지 등을 종합 고려해야 함 ①比例性 : 個人映像情報の処理目的が正当であり、手段が適正であるか、予想される便益に比べて権利侵害のリスクが過度であるかなどを総合的に考慮しなければならない。
② 적법성 : 개인영상정보 처리(수집ㆍ이용 등) 근거는 적법ㆍ명확하여야 함 ②適法性 : 個人映像情報の処理(収集・利用など)の根拠は適法・明確でなければならない。
③ 투명성 : 개인영상정보 처리에 관한 사항을 투명하게 공개해야 함 ③透明性 : 個人映像情報の処理に関する事項を透明に公開しなければならない。
④ 안전성 : 개인영상정보가 유출ㆍ훼손되지 않도록 안전하게 관리해야 함 ④安全性 : 個人映像情報が流出・毀損されないように安全に管理しなければならない。
⑤ 책임성 : 법령에서 정하는 책임과 의무를 준수하고, 신뢰를 확보하기 위해 노력해야 함 ⑤責任性 : 法令で定める責任と義務を遵守し、信頼を確保するために努力しなければならない。
⑥ 목적 제한 : 개인영상정보 처리는 목적에 필요한 범위에서 최소화해야 함 ⑥目的の制限 : 個人映像情報の処理は目的に必要な範囲内で最小化しなければならない。
⑦ 통제권 보장 : 정보주체가 자신의 개인영상정보에 대한 통제권을 행사할 수 있는 수단을 제공하고 이를 보장해야 함 ⑦コントロール権の保障:情報主体が自分の個人映像情報に対する統制権を行使できる手段を提供し、これを保障しなければならない。
⑧ 사생활 보호 : 사생활 침해를 최소화하는 방법으로 개인영상정보를 처리해야 함 ⑧プライバシー保護:プライバシー侵害を最小化する方法で個人映像情報を処理しなければならない。
【 ② 개인영상정보 처리 단계별 준수 및 권고사항 안내 】 【②個人映像情報の処理段階別の遵守及び勧告事項の案内 】。
  아울러 개인영상정보의 처리 단계별로 준수해야 할 사항을 구체적으로 설명하는 한편, 개인정보 침해를 예방할 수 있는 바람직한 개인영상정보 처리 방법 및 각종 권고 사항 등을 안내하였다. また、個人映像情報の処理段階別に遵守すべき事項を具体的に説明するとともに、個人情報侵害を予防できる望ましい個人映像情報の処理方法及び各種勧告事項などを案内した。
  「개인정보 보호법」에서는 업무를 목적으로 공개된 장소에서 이동형 영상정보처리기기를 통해 불특정 다수의 영상을 촬영하고자 할 경우에는 촬영사실 표시, 부당한 권리침해 금지, 정보주체의 권리 보장 등의 법적 요건을 준수하도록 규정하고 있는데, 이번 안내서에서는 이동형 영상정보처리기기별로 촬영사실을 표시하는 표준화된 방법과 부당한 권리침해 우려가 있는지 여부를 판단하는 기준*, 정보주체의 권리 보장을 위해 조치해야 할 사항 등과 같이 관련 사업자 및제품ㆍ서비스 개발자 등에게 필요한 세부적인 사항을 반영하였다. 「個人情報保護法」では、業務を目的として公開された場所で移動型映像情報処理機器を通じて不特定多数の映像を撮影しようとする場合には、撮影事実の表示、不当な権利侵害の禁止、情報主体の権利保障などの法的要件を遵守するよう規定しているが、今回のガイドでは、移動型映像情報処理機器別に撮影事実を表示する標準化された方法と不当な権利侵害の恐れがあるかどうかを判断する基準*、情報主体の権利保障のために措置すべき事項など、関連事業者及び製品・サービス開発者などに必要な詳細な事項を反映した。
   * 특정인을 추적·감시, 특정 신체부위 집중 촬영 등은 부당한 권리침해 우려가 있는 경우에 해당 * 特定人を追跡・監視、特定身体部位の集中撮影などは、不当な権利侵害の恐れがある場合に該当する。
【 ③ 인공지능(AI) 학습 활용시 조치사항 및 사례 】 【 ③ 人工知能(AI)学習活用時の措置事項及び事例 】。
  산업계 간담회 등에서 수렴한 연구개발 현장의 실제 문의사항을 반영하여 이동형 영상정보처리기기 관련 제품ㆍ서비스 개발자 등이 개인영상정보를 인공지능(AI) 학습에 활용하는 경우 개인정보 보호를 위해 조치해야 할 사항을 다양한 사례와 유형별 시나리오 등으로 쉽게 설명하여 현장에 잘 적용될 수 있도록 하였다. 産業界懇談会などで収集した研究開発現場の実際の問い合わせ事項を反映し、移動型映像情報処理機器関連製品・サービス開発者などが個人映像情報を人工知能(AI)学習に活用する場合、個人情報保護のために措置すべき事項を様々な事例とタイプ別シナリオなどで簡単に説明し、現場にうまく適用できるようにした。
  자율주행차, 배달로봇 등이 공개된 장소에서 촬영된 불특정 다수의 영상을 인공지능(AI) 학습에 활용하는 경우에는 원칙적으로 특정 개인을 알아볼 수 없도록 가명처리(얼굴 모자이크 처리 등)한 후 활용하여야 하며, 다만, 연구목적 달성을 위해 영상 원본 활용이 불가피한 경우에는 규제샌드박스(규제유예제도) 실증특례* 제도를 통해 개인정보위가 제시하는 안전조치를 모두 준수하는 조건으로 영상 원본을 자율주행 인공지능(AI) 개발 등에 활용할 수 있다.  自動運転車、配達ロボットなどが公開された場所で撮影された不特定多数の映像を人工知能(AI)学習に活用する場合には、原則的に特定の個人を認識できないように仮名処理(顔モザイク処理など)した後、活用しなければならないが、研究目的達成のために映像原本の活用が避けられない場合には、規制サンドボックス(規制猶予制度)実証特例*制度を通じ、個人情報委員会が提示する安全措置をすべて遵守する条件で映像原本を自動運転人工知能(AI)開発などに活用することができる。
   * 신기술을 활용한 새로운 제품과 서비스를 일정 조건 하에서 시장에 우선 출시해 시험·검증할 수 있도록 현행 규제의 전부나 일부를 적용하지 않는 제도(www.sandbox.go.kr 참조) * 新技術を活用した新たな製品とサービスを一定条件の下で市場に優先的に発売して試験・検証できるように、現行の規制の全部や一部を適用しない制度(www.sandbox.go.kr参照)。
【 ④ 개인영상정보의 안전한 보관 및 관리 】 【 ④ 個人映像情報の安全な保管及び管理 】。
  개인영상정보를 안전하게 보관 및 관리하기 위해 필요한 사항과 유출 또는 훼손 예방을 위한 안전성 확보 조치의 세부 내용 및 정보주체 권리행사 방법ㆍ절차의 공개 등을 자세히 설명하였다. 個人映像情報を安全に保管及び管理するために必要な事項と流出又は毀損防止のための安全性確保措置の詳細内容及び情報主体の権利行使方法・手続きの公開などを詳細に説明した。
  특히, 외부업체 위수탁을 통해 개인영상정보를 처리하는 경우에는 보호책임자 지정 및 주기적인 점검ㆍ교육 등을 통해 업무 목적 달성을 위해 필요한 범위에서 개인영상정보가 안전하게 관리될 수 있도록 세심한 주의를 기울일 것을 당부하였다. 特に、外部業者に委託して個人映像情報を処理する場合には、保護責任者の指定及び定期的な点検・教育などを通じて、業務目的達成のために必要な範囲で個人映像情報が安全に管理されるように細心の注意を払うよう求めた。
  이번에 공개된 안내서는 현행 법령과 최신 국내외 기술 동향 등을 종합 반영하여 각계 의견수렴을 통해 마련된 것으로서, 앞으로 관련 법령의 제ㆍ개정이나 인공지능(AI) 기술의 발전에 따라 지속 개선ㆍ보완될 예정이다.  今回公開されたガイドは、現行法令と最新の国内外の技術動向などを総合的に反映し、各界の意見収集を通じて作成されたもので、今後、関連法令の制定・改正や人工知能(AI)技術の発展に応じて継続的に改善・補完される予定だ。
  양청삼 개인정보정책국장은 “인공지능(AI) 발전에 따라 자율주행차, 로봇 등의 이동형 영상정보처리기기가 국민 생활 및 산업 전반에 널리 확대되고 있고 앞으로도 지속적인 성장이 예상되고 있어 미래 산업 경쟁력의 핵심이 될 것”이라며 ヤン・チョンサム個人情報政策局長は、「人工知能(AI)の発展により、自動運転車、ロボットなどの移動型映像情報処理機器が国民生活及び産業全般に広く拡大しており、今後も持続的な成長が予想されており、未来産業競争力の核心となるだろう」とし、「移動型映像情報処理機器の製品・サービス提供は、今後の産業競争力の鍵となる」と述べた。
  “이동형 영상정보처리기기 제품ㆍ서비스 개발자 등은 이번 안내서를 참조하여 개인영상정보의 안전한 산업적 활용을 촉진하면서도 정보주체에 대한 권리침해가 발생하지 않도록 세심한 주의를 기울임으로써 소비자 신뢰를 확보하고 글로벌 차원의 경쟁력을 강화할 수 있기를 기대한다”고 말했다. 「移動型映像情報処理機器製品・サービス開発者などは、今回のガイドを参考にして個人映像情報の安全な産業的活用を促進しながら、情報主体に対する権利侵害が発生しないように細心の注意を払うことで、消費者の信頼を確保し、グローバルレベルの競争力を強化できることを期待している」と述べた。

 

● 정부24

・2024.10.14 정책뉴스 자율주행 인공지능(AI) 발전을 위한 개인영상정보 보호·활용 기준 나왔다

 

ガイド...

・[PDF] 이동형 영상정보처리기기를 위한 개인영상정보 보호·활용 안내서 [downloaded]

20241015-60822

 

 

プレス...

・[PDF]

20241015-61125

・[DOCX]PDF] 仮訳

 

| | Comments (0)

2024.09.22

中国 AI安全ガバナンスフレームワーク(V1.0) (2024.09.09)

こんにちは、丸山満彦です。

中国が、AI安全ガバナンスフレームワーク(V1.0)を公表していますね。。。中国語版と英語版を策定していますね...

中国もAIの開発に力を入れていますが、同時にその標準にも力をいれていますね...

 

● 中央网安全和信息化委公室 (Cyberspace Administration of China: CAC)

・2024.09.09 《人工智能安全治理框架》1.0版发布

 

《人工智能安全治理框架》1.0版发布 「人工知能セキュリティガバナンスフレームワーク」バージョン1.0がリリースされた
9月9日,在2024年国家网络安全宣传周主论坛上,全国网络安全标准化技术委员会(以下简称“网安标委”)发布《人工智能安全治理框架》1.0版。 9月9日、2024年国家サイバーセキュリティ意識向上週間のメインフォーラムにおいて、国家サイバーセキュリティ標準化技術委員会(以下、「サイバーセキュリティ標準化委員会」と略す)は、「人工知能セキュリティガバナンスフレームワーク」のバージョン1.0をリリースした。
贯彻落实《全球人工智能治理倡议》,网安标委研究制定了《人工智能安全治理框架》(以下简称《框架》)。《框架》以鼓励人工智能创新发展为第一要务,以有效防范化解人工智能安全风险为出发点和落脚点,提出了包容审慎、确保安全,风险导向、敏捷治理,技管结合、协同应对,开放合作、共治共享等人工智能安全治理的原则。《框架》按照风险管理的理念,紧密结合人工智能技术特性,分析人工智能风险来源和表现形式,针对模型算法安全、数据安全和系统安全等内生安全风险和网络域、现实域、认知域、伦理域等应用安全风险,提出相应技术应对和综合防治措施,以及人工智能安全开发应用指引。 国家ネットワークセキュリティ標準化技術委員会(以下「ネットワークセキュリティ標準化委員会」)は、グローバル人工知能ガバナンスイニシアティブを実施するために、「人工知能セキュリティガバナンスフレームワーク」(以下「フレームワーク」)を研究・策定した。フレームワークの第一の優先事項は、人工知能の革新的な発展を促すことであり、その出発点と最終目標は、人工知能のセキュリティリスクを効果的に防止・解決することである。同フレームワークは、包括的かつ慎重なガバナンスの原則を提案し、安全性を確保し、リスク志向で機敏なガバナンスを行い、技術的および管理的なアプローチを組み合わせ、協調的に対応し、共同ガバナンスと共有のためのオープンな協力を提案している。 このフレームワークは、リスク管理の概念に則り、人工知能の技術的特性と密接に連携しながら、人工知能のリスクの発生源と現れ方を分析している。モデルアルゴリズムのセキュリティ、データセキュリティ、システムセキュリティなどの内在的なセキュリティリスク、およびサイバー、物理、認知、倫理の各領域におけるアプリケーションのセキュリティリスクに対応する技術的対応策と包括的な予防・管理措置を提案している。また、人工知能の安全な開発と応用に関するガイドラインも提供している。
网安标委秘书处主要负责人表示,《框架》1.0版的发布,对推动社会各方积极参与、协同推进人工智能安全治理具有重要促进作用,为培育安全、可靠、公平、透明的人工智能技术研发和应用生态,促进人工智能的健康发展和规范应用,提供了基础性、框架性技术指南。同时,也有助于在全球范围推动人工智能安全治理国际合作,推动形成具有广泛共识的全球人工智能治理体系,确保人工智能技术造福于人类。 ネットワークセキュリティ標準化委員会事務局の主要担当者は、フレームワークのバージョン1.0のリリースは、社会の各当事者の積極的な参加とAIセキュリティガバナンスの協調的な推進を促進する上で重要な役割を果たし、安全で信頼性が高く、公平かつ透明性の高いAI技術の研究開発と応用のためのエコシステムを育成し、AIの健全な発展と規範的な応用を促進するための基本的な枠組み技術ガイドラインを提供すると述べた。また、AIセキュリティガバナンスに関する国際協力のグローバルな推進にも役立ち、幅広い合意に基づくグローバルなAIガバナンスシステムの形成を促進し、AI技術が人類に恩恵をもたらすことを確実にする。

 

・[PDF] 人工智能安全治理框架

20240921-32507

 

 

・[PDF] AI Safety Governance Framework (V1.0)

20240921-32341

 

 

目次...

1. Principles for AI safety governance 1. AI安全ガバナンスの原則
2. Framework for AI safety governance 2. AI安全ガバナンスの枠組み
3. Classification of AI safety risks 3. AIの安全リスクの分類
3.1 AI's inherent safety risks 3.1 AIに内在する安全リスク
3.2 Safety risks in AI applications 3.2 AIの応用における安全リスク
4. Technological measures to address risks 4. リスクに対処するための技術的対策
4.1 Addressing AI’s inherent safety risks 4.1 AIに内在する安全リスクへの対応
4.2 Addressing safety risks in AI applications 4.2 AIアプリケーションにおける安全リスクへの対応
5. Comprehensive governance measures 5. 包括的なガバナンス対策
6. Safety guidelines for AI development and application 6. AIの開発と応用における安全ガイドライン
6.1 Safety guidelines for model algorithm developers 6.1 モデルアルゴリズム開発者向け安全ガイドライン
6.2 Safety guidelines for AI service providers 6.2 AIサービスプロバイダのための安全ガイドライン
6.3 Safety guidelines for users in key areas 6.3 重点分野における利用者向け安全ガイドライン
6.4 Safety guidelines for general users 6.4 一般ユーザー向け安全ガイドライン

 

 

 

 

AI Safety Governance Framework (V1.0) AI安全ガバナンスフレームワーク(V1.0)
Artificial Intelligence (AI), a new area of human development, presents significant opportunities to the world while posing various risks and challenges. Upholding a people-centered approach and adhering to the principle of developing AI for good, this framework has been formulated to implement the Global AI Governance Initiative and promote consensus and coordinated efforts on AI safety governance among governments, international organizations, companies, research institutes, civil organizations, and individuals, aiming to effectively prevent and defuse AI safety risks. 人類の新たな発展分野である人工知能(AI)は、世界に大きな機会をもたらす一方で、さまざまなリスクや課題も提起している。本フレームワークは、人間中心のアプローチを堅持し、AIを善のために発展させるという原則に則り、グローバルAIガバナンスイニシアティブを実施し、政府、国際機構、企業、研究機構、市民機構、個人間のAI安全ガバナンスに関するコンセンサスと協調的な取り組みを促進し、AIの安全リスクを効果的に防止・緩和することを目的として策定された。
1. Principles for AI safety governance 1. AI安全ガバナンスの原則
• Commit to a vision of common, comprehensive, cooperative, and sustainable security while putting equal emphasis on development and security • 開発と安全の両方に等しく重点を置きつつ、共通、包括的、協調的、持続可能なセキュリティというビジョンを追求する
• Prioritize the innovative development of AI • AIの革新的な発展を優先する
• Take effectively preventing and defusing AI safety risks as the starting point and ultimate goal  • AIの安全リスクの有効な防止と緩和を起点とし、究極の目標とする
• Establish governance mechanisms that engage all stakeholders, integrate technology and management, and ensure coordinated efforts and collaboration among them • すべてのステークホルダーを巻き込み、技術と管理を統合し、それらの協調と協力を確保するガバナンスメカニズムを構築する
• Ensure that all parties involved fully shoulder their responsibilities for AI safety • 関係するすべての当事者がAIの安全に対する責任を完全に担うことを確保する
• Create a whole-process, all-element governance chain • すべてのプロセス、すべての要素のガバナンスチェーンを構築する ガバナンスの連鎖を構築する
• Foster a safe, reliable, equitable, and transparent AI for the technical research, development, and application • 技術研究、開発、応用における安全で信頼性が高く、公平で透明性の高いAIを促進する
• Promote the healthy development and regulated application of AI • AIの健全な発展と規範的な応用を促進する
• Effectively safeguard national sovereignty, security and development interests • 国家の主権、安全、発展利益を効果的に保護する
• Protect the legitimate rights and interests of citizens, legal persons and other organizations • 国民、法人、その他の組織の正当な権利と利益を防御する
• Guarantee that AI technology benefits humanity • AI技術が人類に恩恵をもたらすことを保証する
1.1 Be inclusive and prudent to ensure safety 1.1 包括的かつ慎重に安全性を確保する
We encourage development and innovation and take an inclusive approach to AI research, development, and application. We make every effort to ensure AI safety, and will take timely measures to address any risks that threaten national security, harm the public interest, or infringe upon the legitimate rights and interests of individuals. AIの研究、開発、応用において、開発とイノベーションを奨励し、包括的なアプローチを取る。AIの安全性を確保するためにあらゆる努力を払い、国家安全保障を脅かし、公益を損ない、個人の正当な権利と利益を侵害するリスクに対しては、適時に対策を講じる。
1.2 Identify risks with agile governance 1.2 機敏なガバナンスによるリスクの識別
By closely tracking trends in AI research, development, and application, we identify AI safety risks from two perspectives: the technology itself and its application. We propose tailored preventive measures to mitigate these risks. We follow the evolution of safety risks, swiftly adjusting our governance measures as needed. We are committed to improving the governance mechanisms and methods while promptly responding to issues warranting government oversight.  AIの研究、開発、応用に関する動向を注視し、技術そのものとその応用の2つの観点からAIの安全リスクを識別する。 これらのリスクを低減するための個別にカスタマイズされた予防策を提案する。 安全リスクの進化を追跡し、必要に応じてガバナンス対策を迅速に調整する。 ガバナンスの仕組みと手法の改善に努めるとともに、政府の監督が必要な問題には迅速に対応する。
1.3 Integrate technology and management for coordinated response 1.3 技術とマネジメントを統合し、協調的な対応を実現する
We adopt a comprehensive safety governance approach that integrates technology and management to prevent and address various safety risks throughout the entire process of AI research, development, and application. Within the AI research, development, and application chain, it is essential to ensure that all relevant parties, including model and algorithm researchers and developers, service providers, and users, assume their respective responsibilities for AI safety. This approach well leverages the roles of governance mechanisms involving government oversight, industry selfregulation, and public scrutiny. AIの研究、開発、応用の全プロセスにおいて、さまざまな安全リスクを防止し、対処するために、技術とマネジメントを統合した包括的な安全ガバナンスのアプローチを採用する。AIの研究、開発、応用の連鎖において、モデルやアルゴリズムの研究者や開発者、サービス・プロバイダー、ユーザーなど、すべての関係者がAIの安全性に対してそれぞれの責任を担うことが不可欠である。このアプローチは、政府の監督、業界の自主規制、および公的監視を含むガバナンスメカニズムの役割を十分に活用する。
1.4 Promote openness and cooperation for joint governance and shared benefits 1.4 共同ガバナンスと利益共有のための開放性と協調の促進
We promote international cooperation on AI safety governance, with the best practices shared worldwide. We advocate establishing open platforms and advance efforts to build broad consensus on a global AI governance system through dialogue and cooperation across various disciplines, fields, regions, and nations. 我々は、AIの安全性ガバナンスに関する国際協力を推進し、ベストプラクティスを世界中で共有する。我々は、オープンなプラットフォームの構築を提唱し、さまざまな分野、領域、地域、国々における対話と協力を通じて、グローバルなAIガバナンスシステムに関する幅広い合意形成に向けた取り組みを推進する。
2. Framework for AI safety governance 2. AI安全ガバナンスの枠組み
Based on the notion of risk management, this framework outlines control measures to address different types of AI safety risks through technological and managerial strategies. As AI research, development, and application rapidly evolves, leading to changes in the forms, impacts, and our perception of safety risks, it is necessary to continuously update control measures, and invite all stakeholders to refine the governance framework. リスクマネジメントの考え方に基づき、この枠組みでは、技術的および経営的な戦略を通じて、さまざまなAI安全リスクに対処するための管理対策の概要を示している。AIの研究、開発、応用が急速に進展し、安全リスクの形態、影響、および我々の安全リスクに対する認識が変化するにつれ、管理対策を継続的に更新し、すべてのステークホルダーを招いてガバナンスの枠組みを改善していく必要がある。
2.1 Safety and security risks 2.1 安全・セキュリティリスク
By examining the characteristics of AI technology and its application scenarios across various industries and fields, we pinpoint safety and security risks and potential dangers that are inherently linked to the technology itself and its application. AI技術の特性と、さまざまな産業・分野における適用シナリオを検討し、技術そのものやその適用に内在する安全・セキュリティリスクや潜在的な危険性を特定する。
2.2 Technical countermeasures 2.2 技術的対策
Regarding models and algorithms, training data, computing facilities, products and services, and application scenarios, we propose targeted technical measures to improve the safety, fairness, reliability, and robustness of AI products and applications. These measures include secure software development, data quality improvement, construction and operations security enhancement, and conducting evaluation, monitoring, and reinforcement activities. モデルやアルゴリズム、学習データ、計算設備、製品・サービス、適用シナリオなどについて、AI製品やアプリケーションの安全性、公平性、信頼性、堅牢性を向上させるための技術的対策を提案する。これらの対策には、セキュアなソフトウェア開発、データ品質の改善、構築と運用におけるセキュリティ強化、評価、監視、強化活動の実施などが含まれる。
2.3 Comprehensive governance measures 2.3 包括的なガバナンス対策
In accordance with the principle of coordinated efforts and joint governance, we clarify the measures that all stakeholders, including technology research institutions, product and service providers, users, government agencies, industry associations, and social organizations, should take to identify, prevent, and respond to AI safety risks.  協調と共同ガバナンスの原則に従い、技術研究機関、製品およびサービスプロバイダ、ユーザー、政府機関、業界団体、社会組織など、すべてのステークホルダーがAIの安全リスクを識別、防止、対応するために取るべき対策を明確にする。
2.4 Safety guidelines for AI development and application 2.4 AIの開発と応用における安全ガイドライン
We propose several safety guidelines for AI model and algorithm developers, AI service providers, users in key areas, and general users, to develop and apply AI technology.  AIモデルおよびアルゴリズムの開発者、AIサービスプロバイダ、主要分野の利用者、一般利用者がAI技術を開発・応用するにあたり、いくつかの安全ガイドラインを提案する。
3. Classification of AI safety risks 3. AIの安全リスクの分類
Safety risks exist at every stage throughout the AI chain, from system design to research and development (R&D), training, testing, deployment, utilization, and maintenance. These risks stem from inherent technical flaws as well as misuse, abuse, and malicious use of AI. 安全リスクは、システム設計から研究開発(R&D)、訓練、テスト、展開、利用、保守に至るまで、AIのチェーンのすべてのステージに存在する。これらのリスクは、AIに内在する技術的な欠陥や、AIの誤用、乱用、悪用に起因する。
3.1 AI's inherent safety risks 3.1 AIに内在する安全リスク
3.1.1 Risks from models and algorithms 3.1.1 モデルとアルゴリズムに起因するリスク
(a) Risks of explainability  (a) 説明可能性のリスク
AI algorithms, represented by deep learning, have complex internal workings. Their black-box or grey-box inference process results in unpredictable and untraceable outputs, making it challenging to quickly rectify them or trace their origins for accountability should any anomalies arise. ディープラーニングに代表されるAIアルゴリズムは、複雑な内部構造を持つ。ブラックボックスまたはグレイボックスの推論プロセスは、予測不可能で追跡不可能な出力を生み出すため、異常が発生した場合に迅速に修正したり、説明責任を果たすために原因を追跡したりすることが困難になる。
(b) Risks of bias and discrimination (b) バイアスおよび差別のリスク
During the algorithm design and training process, personal biases may be introduced, either intentionally or unintentionally. Additionally, poor-quality datasets can lead to biased or discriminatory outcomes in the algorithm's design and outputs, including discriminatory content regarding ethnicity, religion, nationality and region. アルゴリズムの設計およびトレーニングの過程において、意図的または非意図的に個人のバイアスが導入される可能性がある。さらに、品質の低いデータセットは、アルゴリズムの設計および出力において、人種、宗教、国籍、地域に関する識別的なコンテンツを含む、バイアスまたは差別的な結果につながる可能性がある。
(c) Risks of robustness (c) 頑健性のリスク
As deep neural networks are normally non-linear and large in size, AI systems are susceptible to complex and changing operational environments or malicious interference and inductions, possibly leading to various problems like reduced performance and decision-making errors. ディープニューラルネットワークは通常、非線形かつ規模が大きいため、AIシステムは複雑かつ変化する運用環境や悪意のある干渉や誘導の影響を受けやすく、パフォーマンスの低下や意思決定エラーなどのさまざまな問題につながる可能性がある。
(d) Risks of stealing and tampering (d) 盗用や改ざんのリスク
Core algorithm information, including parameters, structures, and functions, faces risks of inversion attacks, stealing, modification, and even backdoor injection, which can lead to infringement of intellectual property rights (IPR) and leakage of business secrets. It can also lead to unreliable inference, wrong decision output and even operational failures. パラメータ、構造、機能などのコアアルゴリズム情報は、逆アタック、盗用、改ざん、さらにはバックドアの挿入のリスクにさらされており、知的財産権(IPR)の侵害や企業秘密の漏洩につながる可能性がある。また、信頼性の低い推論、誤った判断結果、さらには運用上の障害につながる可能性もある。
(e) Risks of unreliable output (e) 信頼性の低い出力のリスク
Generative AI can cause hallucinations, meaning that an AI model generates untruthful or unreasonable content, but presents it as if it were a fact, leading to biased and misleading information. 生成的AIは幻覚を引き起こす可能性があり、つまりAIモデルが真実ではない、または非合理的なコンテンツを生成し、あたかもそれが事実であるかのように提示することで、偏った誤解を招く情報につながる。
(f) Risks of adversarial attack (f) 敵対的攻撃のリスク
Attackers can craft well-designed adversarial examples to subtly mislead, influence and even manipulate AI models, causing incorrect outputs and potentially leading to operational failures. 攻撃者は、AIモデルを巧妙に欺き、影響を与え、場合によっては操作する巧妙に設計された敵対的サンプルを作成することができ、不正な出力を引き起こし、運用上の障害につながる可能性がある。
3.1.2 Risks from data 3.1.2 データに起因するリスク
(a)Risks of illegal collection and use of data (a) データの違法な収集と利用のリスク
The collection of AI training data and the interaction with users during service provision pose security risks, including collecting data without consent and improper use of data and personal information. AIの学習データの収集やサービス提供時のユーザーとのやりとりには、同意なしのデータ収集や、データや個人情報の不適切な利用など、セキュリティ上のリスクが伴う。
(b)Risks of improper content and poisoning in training data (b) 学習データにおける不適切なコンテンツやポイズニングのリスク
If the training data includes illegal or harmful information like false, biased and IPR-infringing content, or lacks diversity in its sources, the output may include harmful content like illegal, malicious, or extreme information. Training data is also at risk of being poisoned from tampering, error injection, or misleading actions by attackers. This can interfere with the model's probability distribution, reducing its accuracy and reliability. 学習データに虚偽、バイアス、知的財産権侵害などの違法または有害な情報が含まれていたり、ソースに多様性が欠けていたりすると、出力に違法、悪意のある、極端な情報などの有害なコンテンツが含まれる可能性がある。また、トレーニングデータは、攻撃者による改ざん、エラーの注入、誤解を招く行為などによってポイズニングされるリスクもある。これにより、モデルの確率分布が妨げられ、その精度と信頼性が低下する可能性がある。
(c)Risks of unregulated training data annotation (c) 規制されていないトレーニングデータ・アノテーションのリスク
Issues with training data annotation, such as incomplete annotation guidelines, incapable annotators, and errors in annotation, can affect the accuracy, reliability, and effectiveness of models and algorithms. Moreover, they can introduce training biases, amplify discrimination, reduce generalization abilities, and result in incorrect outputs. トレーニングデータ・アノテーションに関する問題、例えば、不完全なアノテーションガイドライン、アノテーターの能力不足、アノテーションのエラーなどは、モデルやアルゴリズムの精度、信頼性、有効性に影響を与える可能性がある。さらに、学習バイアスが生じたり、識別性が強まったり、汎化能力が低下したりして、誤った出力結果につながる可能性もある。
(d) Risks of data leakage  (d) データ漏洩のリスク
In AI research, development, and applications, issues such as improper data processing, unauthorized access, malicious attacks, and deceptive interactions can lead to data and personal information leaks.  AIの研究、開発、応用において、不適切なデータ処理、不正アクセス、悪意ある攻撃、欺瞞的なやりとりなどの問題は、データや個人情報の漏洩につながる可能性がある。
3.1.3 Risks from AI systems 3.1.3 AIシステムがもたらすリスク
(a)Risks of exploitation through defects and backdoors (a) 欠陥やバックドアによる悪用リスク
The standardized API, feature libraries, toolkits used in the design, training, and verification stages of AI algorithms and models, development interfaces, and execution platforms, may contain logical flaws and vulnerabilities. These weaknesses can be exploited, and in some cases, backdoors can be intentionally embedded, posing significant risks of being triggered and used for attacks. AIアルゴリズムやモデルの設計、訓練、検証段階で使用される標準化されたAPI、機能ライブラリ、ツールキット、開発インターフェース、実行プラットフォームには、論理的な欠陥や脆弱性が含まれている可能性がある。これらの弱点が悪用される可能性があり、場合によっては意図的にバックドアが仕掛けられることもあり、攻撃の引き金となり悪用されるリスクが大きい。
(b) Risks of computing infrastructure security  (b) コンピューティングインフラのセキュリティリスク
The computing infrastructure underpinning AI training and operations, which relies on diverse and ubiquitous computing nodes and various types of computing resources, faces risks such as malicious consumption of computing resources and cross-boundary transmission of security threats at the layer of computing infrastructure. AIのトレーニングと運用を支えるコンピューティングインフラは、多様かつユビキタスなコンピューティングノードとさまざまな種類のコンピューティングリソースに依存しているため、コンピューティングインフラのレイヤーにおいて、コンピューティングリソースの悪用やセキュリティ脅威の境界を越えた伝播などのリスクに直面している。
(c) Risks of supply chain security (c) サプライチェーンセキュリティのリスク
The AI industry relies on a highly globalized supply chain. However, certain countries may use unilateral coercive measures, such as technology barriers and export restrictions, to create development obstacles and maliciously disrupt the global AI supply chain. This can lead to significant risks of supply disruptions for chips, software, and tools. AI産業は高度にグローバル化されたサプライチェーンに依存している。しかし、一部の国が技術障壁や輸出規制などの一方的な強制措置を用いて開発上の障害を作り出し、グローバルなAIサプライチェーンを悪意を持って混乱させる可能性がある。これにより、チップ、ソフトウェア、ツールの供給が中断される重大なリスクが生じる可能性がある。
3.2 Safety risks in AI applications 3.2 AIアプリケーションにおける安全リスク
3.2.1 Cyberspace risks 3.2.1 サイバー空間におけるリスク
(a) Risks of information and content safety (a) 情報およびコンテンツの安全性に関するリスク
AI-generated or synthesized content can lead to the spread of false information, discrimination and bias, privacy leakage, and infringement issues, threatening the safety of citizens' lives and property, national security, ideological security, and causing ethical risks. If users’ inputs contain harmful content, the model may output illegal or damaging information without robust security mechanisms. AIが生成または合成したコンテンツは、誤った情報の拡散、差別やバイアス、プライバシー漏洩、権利侵害問題につながり、市民の生命や財産の安全、国家安全保障、イデオロギー上の安全を脅かし、倫理上のリスクを引き起こす可能性がある。ユーザーの入力に有害なコンテンツが含まれている場合、強固なセキュリティメカニズムがなければ、モデルが違法または有害な情報を出力する可能性がある。
(b) Risks of confusing facts, misleading users, and bypassing authentication (b) 事実の混同、ユーザーの誤解、認証の回避に関するリスク
AI systems and their outputs, if not clearly labeled, can make it difficult for users to discern whether they are interacting with AI and to identify the source of generated content. This can impede users' ability to determine the authenticity of information, leading to misjudgment and misunderstanding. Additionally, AI-generated highly realistic images, audio, and videos may circumvent existing identity verification mechanisms, such as facial recognition and voice recognition, rendering these authentication processes ineffective. AIシステムおよびその出力は、明確にラベル付けされていない場合、ユーザーがAIとやりとりしているのか、生成されたコンテンツのソースを識別しているのかを区別することが困難になる可能性がある。これにより、ユーザーが情報の真正性を判断する能力が妨げられ、誤った判断や誤解につながる可能性がある。さらに、AIが生成する極めて現実的な画像、音声、動画は、顔認識や音声認識などの既存の本人確認メカニズムを回避し、これらの認証プロセスを無効にしてしまう可能性がある。
(c) Risks of information leakage due to improper usage (c) 不適切な利用による情報漏洩のリスク
Staff of government agencies and enterprises, if failing to use the AI service in a regulated and proper manner, may input internal data and industrial information into the AI model, leading to leakage of work secrets, business secrets and other sensitive business data. 政府機関やエンタープライズのスタッフがAIサービスを適切に管理せずに利用した場合、内部データや産業情報をAIモデルに入力し、業務上の秘密や企業秘密、その他の機密性の高い業務データの漏洩につながる可能性がある。
(d) Risks of abuse for cyberattacks (d) サイバー攻撃悪用リスク
AI can be used in launching automatic cyberattacks or increasing attack efficiency, including exploring and making use of vulnerabilities, cracking passwords, generating malicious codes, sending phishing emails, network scanning, and social engineering attacks. All these lower the threshold for cyberattacks and increase the difficulty of security protection.  AIは、自動サイバー攻撃の実行や攻撃効率の向上に利用される可能性があり、これには脆弱性の探索と利用、パスワードのクラッキング、悪意のあるコードの生成、フィッシングメールの送信、ネットワークスキャン、ソーシャルエンジニアリング攻撃などが含まれる。これらのすべてがサイバー攻撃の敷居を下げ、防御の難易度を高める。
(e) Risks of security flaw transmission caused by model reuse (e) モデルの再利用によるセキュリティ欠陥伝播リスク
Re-engineering or fine-tuning based on foundation models is commonly used in AI applications. If security flaws occur in foundation models, it will lead to risk transmission to downstream models.  基礎モデルに基づく再エンジニアリングや微調整は、AIの応用において一般的に使用されている。基礎モデルにセキュリティ欠陥が発生した場合、下流のモデルへのリスク伝播につながる。
3.2.2 Real-world risks  3.2.2 現実世界のリスク
(a)Inducing traditional economic and social security risks (a) 従来の経済・社会のセキュリティリスクを誘発
AI is used in finance, energy, telecommunications, traffic, and people's livelihoods, such as self-driving and smart diagnosis and treatment. Hallucinations and erroneous decisions of models and algorithms, along with issues such as system performance degradation, interruption, and loss of control caused by improper use or external attacks, will pose security threats to users' personal safety, property, and socioeconomic security and stability. AIは、金融、エネルギー、通信、交通、自動運転やスマート診断・治療などの人々の生活に利用されている。モデルやアルゴリズムの幻覚や誤った判断、不適切な使用や外部からの攻撃によるシステム性能の低下、中断、制御不能などの問題は、ユーザーの生命、財産、社会経済の安全と安定に対するセキュリティ上の脅威となる。
(b) Risks of using AI in illegal and criminal activities (b) 違法・犯罪行為におけるAI利用のリスク
AI can be used in traditional illegal or criminal activities related to terrorism, violence, gambling, and drugs, such as teaching criminal techniques, concealing illicit acts, and creating tools for illegal and criminal activities. AIは、犯罪技術の伝授、違法行為の隠蔽、違法・犯罪行為のためのツールの作成など、テロ、暴力、賭博、麻薬などに関連する伝統的な違法・犯罪行為に利用される可能性がある。
(c) Risks of misuse of dual-use items and technologies (c) デュアルユースの物品および技術の悪用リスク
Due to improper use or abuse, AI can pose serious risks to national security, economic security, and public health security, such as greatly reducing the capability requirements for non-experts to design, synthesize, acquire, and use nuclear, biological, and chemical weapons and missiles; designing cyber weapons that launch network attacks on a wide range of potential targets through methods like automatic vulnerability discovering and exploiting. 不適切な使用や乱用により、AIは、核兵器、生物兵器、化学兵器、ミサイルの設計、合成、取得、使用に必要な能力要件を大幅に低下させること、自動脆弱性発見や悪用などの手法により、幅広い潜在的な標的に対するネットワーク攻撃を仕掛けるサイバー兵器を設計することなど、国家安全保障、経済安全保障、公衆衛生安全保障に深刻なリスクをもたらす可能性がある。
3.2.3 Cognitive risks  3.2.3 認知リスク
(a) Risks of amplifying the effects of "information cocoons" (a) 「情報繭」の影響を増幅するリスク
AI can be extensively utilized for customized information services, collecting user information, and analyzing types of users, their needs, intentions, preferences, habits, and even mainstream public awareness over a certain period. It can then be used to offer formulaic and tailored information and service, aggravating the effects of "information cocoons." AIは、カスタマイズされた情報サービス、ユーザー情報の収集、ユーザーの種類、ニーズ、意図、好み、習慣、さらには一定期間における主流の国民意識の分析に広く利用できる。そして、定型化された情報やサービスを提供し、カスタマイズされた情報やサービスを提供することで、「情報繭」の効果をさらに高めることができる。
(b) Risks of usage in launching cognitive warfare (b) 認知戦への利用リスク
AI can be used to make and spread fake news, images, audio, and videos, propagate content of terrorism, extremism, and organized crimes, interfere in internal affairs of other countries, social systems, and social order, and jeopardize sovereignty of other countries. AI can shape public values and cognitive thinking with social media bots gaining discourse power and agenda-setting power in cyberspace.  AIは、偽のニュース、画像、音声、動画を作成・拡散し、テロリズム、過激主義、組織犯罪のコンテンツを拡散し、他国の内政、社会システム、社会秩序に干渉し、他国の主権を脅かすために利用される可能性がある。AIは、サイバー空間で言説力やアジェンダ設定力を獲得したソーシャルメディア・ボットによって、公共の価値観や認知思考を形成することができる。
3.2.4 Ethical risks  3.2.4 倫理的リスク
(a)Risks of exacerbating social discrimination and prejudice, and widening the intelligence divide (a) 社会の差別や偏見を助長し、情報格差を拡大するリスク
AI can be used to collect and analyze human behaviors, social status, economic status, and individual personalities, labeling and categorizing groups of people to treat them discriminatingly, thus causing systematical and structural social discrimination and prejudice. At the same time, the intelligence divide would be expanded among regions.  AIは、人間の行動、社会的な地位、経済的な地位、個人の性格を収集・分析し、人々を識別し、カテゴリー分けして、識別的に扱うために使用される可能性があり、それによって、組織的かつ構造的な社会の差別や偏見が生じる。同時に、地域間の知能格差も拡大するだろう。 
(b)Risks of challenging traditional social order (b)従来の社会秩序への挑戦のリスク
The development and application of AI may lead to tremendous changes in production tools and relations, accelerating the reconstruction of traditional industry modes, transforming traditional views on employment, fertility, and education, and bringing challenges to stable performance of traditional social order.  AIの開発と応用は、生産手段と生産関係に大きな変化をもたらし、従来の産業形態の再構築を加速し、雇用、出生率、教育に対する従来の考え方を変え、従来の社会秩序の安定した運営に挑戦をもたらす可能性がある。
(c)Risks of AI becoming uncontrollable in the future (c) 将来、AIが制御不能になるリスク
With the fast development of AI technologies, there is a risk of AI autonomously acquiring external resources, conducting self-replication, become self-aware, seeking for external power, and attempting to seize control from humans.  AI技術が急速に発展するにつれ、AIが外部リソースを自律的に獲得し、自己複製を行い、自己認識力を持ち、外部の力を求め、人間から制御権を奪おうとするリスクがある。
4. Technological measures to address risks  4. リスクへの技術的対応策
Responding to the above risks, AI developers, service providers, and system users should prevent risks by taking technological measures in the fields of training data, computing infrastructures, models and algorithms, product services, and application scenarios. 上記リスクへの対応として、AI開発者、サービスプロバイダ、システム利用者は、学習データ、コンピューティングインフラ、モデル・アルゴリズム、製品サービス、適用シナリオの各分野において、技術的対応策を講じることにより、リスクを防止すべきである。
4.1 Addressing AI’s inherent safety risks  4.1 AIに内在する安全性リスクへの対応
4.1.1 Addressing risks from models and algorithms 4.1.1 モデルとアルゴリズムのリスクへの対応
(a) Explainability and predictability of AI should be constantly improved to provide clear explanation for the internal structure, reasoning logic, technical interfaces, and output results of AI systems, accurately reflecting the process by which AI systems produce outcomes. (a) AIの説明可能性と予測可能性を常に改善し、AIシステムの内部構造、推論ロジック、技術的インターフェース、出力結果について明確な説明を提供し、AIシステムが結果を生成するプロセスを正確に反映する。
(b) Secure development standards should be established and implemented in the design, R&D, deployment, and maintenance processes to eliminate as many security flaws and discrimination tendencies in models and algorithms as possible and enhance robustness.  (b) 設計、研究開発、展開、保守の各プロセスにおいて、モデルやアルゴリズムにおけるセキュリティ上の欠陥や識別的傾向を可能な限り排除し、ロバスト性を向上させるための安全な開発標準を策定し、実施すべきである。
4.1.2 Addressing risks from data 4.1.2 データに関するリスクへの対応
(a) Security rules on data collection and usage, and on processing personal information should be abided by in all procedures of training data and user interaction data, including data collection, storage, usage, processing, transmission, provision, publication, and deletion. This aims to fully ensure user’s legitimate rights stipulated by laws and regulations, such as their rights to control, to be informed, and to choose. (a) データ収集および利用、ならびにパーソナルデータの処理に関するセキュリティ規則は、データ収集、保存、利用、処理、送信、提供、公開、削除など、学習データおよびユーザーインタラクションデータのすべての処理手順において遵守されるべきである。これは、ユーザーの合法的な権利、例えば、制御、通知、選択の権利など、法律および規則で規定された権利を完全に確保することを目的としている。
(b) Protection of IPR should be strengthened to prevent infringement on IPR in stages such as selecting training data and result outputs.  (b) 知的財産権の防御を強化し、訓練データの選択や結果出力などの段階で知的財産権の侵害を段階的に防止すべきである。
(c) Training data should be strictly selected to ensure exclusion of sensitive data in high-risk fields such as nuclear, biological, and chemical weapons and missiles.  (c) 訓練データは厳格に選択し、核兵器、生物兵器、化学兵器、ミサイルなどリスクの高い分野の機微なデータを排除すべきである。
(d) Data security management should be strengthened to comply with data security and personal information protection standards and regulations if training data contains sensitive personal information and important data. (d) 訓練データに機微な個人情報や重要なデータが含まれる場合は、データセキュリティと個人情報保護の標準および規則を遵守し、データセキュリティ管理を強化すべきである。
(e) To use truthful, precise, objective, and diverse training data from legitimate sources, and filter ineffective, wrong, and biased data in a timely manner. (e) 合法的な情報源から取得した、正確かつ客観的で多様な学習データを使用し、効果のないデータ、誤ったデータ、バイアスのかかったデータを適時にフィルタリングすること。
(f) The cross-border provision of AI services should comply with the regulations on cross-border data flow. The external provision of AI models and algorithms should comply with export control requirements.  (f) AIサービスの国境を越えた提供は、国境を越えたデータフローに関する規制を遵守すべきである。AIモデルおよびアルゴリズムの外部提供は、輸出管理要件を遵守すべきである。
4.1.3 Addressing risks from AI system 4.1.3 AIシステムにおけるリスクへの対応
(a) To properly disclose the principles, capacities, application scenarios, and safety risks of AI technologies and products, to clearly label outputs, and to constantly make AI systems more transparent.  (a) AI技術および製品の原則、能力、適用シナリオ、安全リスクを適切に開示し、アウトプットを明確にラベル付けし、AIシステムの透明性を常に高めること。
(b) To enhance the risk identification, detection, and mitigation of platforms where multiple AI models or systems congregate, so as to prevent malicious acts or attacks and invasions that target the platforms from impacting the AI models or systems they support.  (b) 複数のAIモデルまたはシステムが集まるプラットフォームにおけるリスクの特定、検知、低減を強化し、プラットフォームを標的とした悪意のある行為や攻撃、侵入が、それらがサポートするAIモデルやシステムに影響を及ぼすことを防ぐこと。
(c) To strengthen the capacity of constructing, managing, and operating AI computing platforms and AI system services safely, with an aim to ensure uninterrupted infrastructure operation and service provision.   (c) AIコンピューティングプラットフォームおよびAIシステムサービスを安全に構築、管理、運用する能力を強化し、インフラの運用とサービス提供を中断させないことを目指す。
(d) To fully consider the supply chain security of the chips, software, tools, computing infrastructure, and data sources adopted for AI systems. To track the vulnerabilities and flaws of both software and hardware products and make timely repair and reinforcement to ensure system security.   (d) AIシステムに採用されるチップ、ソフトウェア、ツール、コンピューティングインフラ、データソースのサプライチェーンセキュリティを十分に考慮する。ソフトウェアおよびハードウェア製品の脆弱性と欠陥を追跡し、システムセキュリティを確保するために、適時に修復と強化を行う。 
4.2 Addressing safety risks in AI applications 4.2 AIアプリケーションの安全リスクへの対応
4.2.1 Addressing cyberspace risks 4.2.1 サイバー空間リスクへの対応
(a) A security protection mechanism should be established to prevent model from being interfered and tampered during operation to ensure reliable outputs. (a) 信頼性の高い出力を確保するため、運用中にモデルが干渉や改ざんを受けないよう、セキュリティ防御メカニズムを構築すべきである。
(b) A data safeguard should be set up to make sure that AI systems comply with applicable laws and regulations when outputting sensitive personal information and important data.  (b) 機密性の高い個人データや重要なデータをAIシステムが出力する際には、AIシステムが適用法や規制を遵守していることを保証するため、データ保護メカニズムを構築すべきである。
4.2.2 Addressing real-world risks  4.2.2 現実世界のリスクへの対応
(a) To establish service limitations according to users’ actual application scenarios and cut AI systems’ features that might be abused. AI systems should not provide services that go beyond the preset scope.  (a) ユーザーの実際の利用シナリオに応じてサービス制限を設け、悪用される可能性のあるAIシステムの機能を削減する。AIシステムは、あらかじめ設定された範囲を超えるサービスを提供してはならない。
(b) To improve the ability to trace the end use of AI systems to prevent high-risk application scenarios such as manufacturing of weapons of mass destruction, like nuclear, biological, chemical weapons and missiles.  (b) AIシステムの最終用途を追跡する能力を改善し、核兵器、生物兵器、化学兵器、ミサイルなどの大量破壊兵器の製造といった高リスクの適用シナリオを防止する。
4.2.3 Addressing cognitive risks 4.2.3 認知リスクへの対応
(a) To identify unexpected, untruthful, and inaccurate outputs via technological means, and regulate them in accordance with laws and regulations.  (a) 予期せぬ、虚偽の、不正確な出力を技術的手段で識別し、法律や規則に従って規制する。
(b) Strict measures should be taken to prevent abuse of AI systems that collect, connect, gather, analyze, and dig into users’ inquiries to profile their identity, preference, and personal mindset.  (b) ユーザーの問い合わせを収集、接続、収集、分析し、そのアイデンティティ、好み、個人的な考え方をプロファイリングするAIシステムの悪用を防ぐために、厳格な措置を取るべきである。
(c) To intensify R&D of AI-generated content (AIGC) testing technologies, aiming to better prevent, detect, and navigate the cognitive warfare. (c) 認知戦の防止、検知、回避をより効果的に行うことを目的として、AI生成コンテンツ(AIGC)のテスト技術の研究開発を強化する。
4.2.4 Addressing ethical risks 4.2.4 倫理的リスクへの対応
(a) Training data should be filtered and outputs should be verified during algorithm design, model training and optimization, service provision and other processes, in an effort to prevent discrimination based on ethnicities, beliefs, nationalities, region, gender, age, occupation and health factors, among others.  (a) アルゴリズムの設計、モデルの訓練と最適化、サービス提供、その他のプロセスにおいて、民族、信仰、国籍、地域、性別、年齢、職業、健康要因などに基づく識別を防止するために、訓練データはフィルタリングされ、出力は検証されるべきである。
(b) AI systems applied in key sectors, such as government departments, critical information infrastructure, and areas directly affecting public safety and people's health and safety, should be equipped with high-efficient emergency management and control measures.  (b) 政府部門、重要な情報インフラ、公共の安全や人々の健康と安全に直接影響する分野など、主要な分野で適用されるAIシステムには、高効率な緊急管理および制御手段を装備すべきである。
5. Comprehensive governance measures 5. 包括的なガバナンス対策
While adopting technological controls, we should formulate and refine comprehensive AI safety and security risk governance mechanisms and regulations that engage multi-stakeholder participation, including technology R&D institutions, service providers, users, government authorities, industry associations, and social organizations.  技術的コントロールを採用する一方で、技術研究開発機構、サービス・プロバイダー、ユーザー、政府当局、業界団体、社会組織など、多様なステークホルダーの参加を促す包括的なAIの安全およびセキュリティ・リスク・ガバナンスのメカニズムと規制を策定し、改善すべきである。
5.1 To implement a tiered and category-based management for AI application.  5.1 AIのアプリケーションに対して、段階的かつカテゴリー別の管理を実施する。
We should classify and grade AI systems based on their features, functions, and application scenarios, and set up a testing and assessment system based on AI risk levels. We should bolster enduse management of AI, and impose requirements on the adoption of AI technologies by specific users and in specific scenarios, thereby preventing AI system abuse. We should register AI systems whose computing and reasoning capacities have reached a certain threshold or those are applied in specific industries and sectors, and demand that such systems possess the safety protection capacity throughout the life cycle including design, R&D, testing, deployment, utilization, and maintenance. AIシステムをその特徴、機能、応用シナリオに基づいて分類・等級付けし、AIのリスクレベルに基づくテスト・アセスメントシステムを構築すべきである。AIのエンドユース管理を強化し、特定のユーザーや特定のシナリオにおけるAI技術の採用に要件を課すことで、AIシステムの悪用を防止すべきである。計算能力や推論能力が一定の水準に達したAIシステムや特定の産業・分野で応用されているAIシステムを登録し、設計、研究開発、テスト、展開、利用、保守といったライフサイクル全体を通じて安全保護能力を備えることを求めるべきである。

5.2 To develop a traceability management system for AI services.  5.2 AIサービスのトレーサビリティ管理システムを構築する。
We should use digital certificates to label the AI systems serving the public. We should formulate and introduce standards and regulations on AI output labeling, and clarify requirements for explicit and implicit labels throughout key stages including creation sources, transmission paths, and distribution channels, with a view to enable users to identify and judge information sources and credibility.  デジタル証明書を用いて、一般向けに提供されるAIシステムにラベルを付けるべきである。また、作成元、伝送経路、配信チャネルなど、主要な段階における明示的および暗示的なラベル付けの要件を明確にし、ユーザーが情報源や信頼性を識別・判断できるようにする。
5.3 To improve AI data security and personal information protection regulations.  5.3 AIデータのセキュリティと個人情報保護に関する規制を改善する。
We should explicate the requirements for data security and personal information protection in various stages such as AI training, labeling, utilization, and output based on the features of AI technologies and applications.  AI技術や応用分野の特徴を踏まえ、AIの訓練、ラベル付け、利用、アウトプットなど、さまざまな段階におけるデータセキュリティや個人情報保護の要件を明確化すべきである。 
5.4 To create a responsible AI R&D and application system.  5.4 責任あるAIの研究開発・応用体制の構築 
We should propose pragmatic instructions and best practices to uphold the people-centered approach and adhere to the principle of developing AI for good in AI R&D and application, and continuously align AI’s design, R&D, and application processes with such values and ethics. We should explore the copyright protection, development and utilization systems that adapt to the AI era and continuously advance the construction of highquality foundational corpora and datasets to provide premium resources for the safe development of AI. We should establish AI-related ethical review standards, norms, and guidelines to improve the ethical review system.  AIの研究開発と応用において、人間中心のアプローチを維持し、AIを善のために開発するという原則に従うための実用的な指示とベストプラクティスを提案し、AIの設計、研究開発、応用プロセスを継続的にそのような価値観や倫理観に沿うように調整すべきである。AI時代に適応した著作権保護、開発、利用システムを模索し、AIの安全な開発のための高品質な基礎コーパスとデータセットの構築を継続的に推進すべきである。AI関連の倫理審査基準、標準、ガイドラインを確立し、倫理審査システムを改善すべきである。
5.5 To strengthen AI supply chain security.  5.5 AIサプライチェーンのセキュリティを強化する。
We should promote knowledge sharing in AI, make AI technologies available to the public under open-source terms, and jointly develop AI chips, frameworks, and software. We should guide the industry to build an open ecosystem, enhance the diversity of supply chain sources, and ensure the security and stability of the AI supply chain. AIにおける知識共有を促進し、AI技術をオープンソース条件で公開し、AIチップ、フレームワーク、ソフトウェアを共同開発すべきである。業界を導いてオープンなエコシステムを構築し、サプライチェーンのソースの多様性を高め、AIサプライチェーンのセキュリティと安定性を確保すべきである。
5.6 To advance research on AI explainability.  5.6 AIの説明可能性に関する研究を推進する。
We should organize and conduct research on the transparency, trustworthiness, and error-correction mechanism in AI decision-making from the perspectives of machine learning theory, training methods and human-computer interaction. Continuous efforts should be made to enhance the explainability and predictability of AI to prevent malicious consequences resulting from unintended decisions made by AI systems. 機械学習理論、トレーニング方法、人間とコンピュータの相互作用の観点から、AIの意思決定における透明性、信頼性、エラー修正メカニズムに関する研究を組織し、実施すべきである。AIシステムの意図しない意思決定による悪意ある結果を防ぐため、AIの説明可能性と予測可能性を高めるための継続的な取り組みを行うべきである。
5.7 To share information, and emergency response of AI safety risks and threats.  5.7 AIの安全リスクと脅威に関する情報の共有と緊急対応を行う。
We should continuously track and analyze security vulnerabilities, defects, risks, threats, and safety incidents related to AI technologies, software and hardware products, services, and other aspects. We should coordinate with relevant developers and service providers to establish a reporting and sharing information mechanism on risks and threats. We should establish an emergency response mechanism for AI safety and security incidents, formulate emergency plans, conduct emergency drills, and handle AI safety hazards, AI security threats, and events timely, rapidly, and effectively. AI技術、ソフトウェアおよびハードウェア製品、サービス、その他の側面に関連するセキュリティ脆弱性、欠陥、リスク、脅威、安全インシデントを継続的に追跡・分析すべきである。関連する開発者およびサービスプロバイダと連携し、リスクおよび脅威に関する報告および情報共有の仕組みを構築すべきである。AIの安全およびセキュリティインシデントに対する緊急対応の仕組みを構築し、緊急対応計画を策定し、緊急対応訓練を実施し、AIの安全上の危険、AIのセキュリティ上の脅威、および事象に迅速かつ効果的に対応すべきである。
5.8 To enhance the training of AI safety  talents.  5.8 AI安全人材の育成を強化する。
We should promote the development of AI safety education in parallel with AI discipline. We should leverage schools and research institutions to strengthen talent cultivation in the fields of design, development, and governance for AI safety. Support should be given to cultivating top AI safety talent in the cutting-edge and foundational fields, and also expanding such talent pool in areas such as autonomous driving, intelligent healthcare, brain-inspired intelligence and brain-computer interface. AIの学問分野の発展と歩調を合わせて、AI安全教育の発展を推進すべきである。学校や研究機構を活用し、AI安全の設計、開発、ガバナンスの各分野における人材育成を強化すべきである。最先端分野および基盤分野におけるAI安全分野のトップ人材の育成を支援し、自動運転、インテリジェントヘルスケア、脳に着想を得たインテリジェンス、ブレイン・コンピュータ・インターフェースなどの分野における人材プールを拡大すべきである。
5.9 To establish and improve the mechanisms for AI safety education, industry self-regulation, and social supervision.  5.9 AI安全教育、業界の自主規制、社会監督のメカニズムを確立し、改善する。
We should strengthen education and training on the safe and proper use of AI among government, enterprises, and public service units. We should step up the promotion of knowledge related to AI risks and their prevention and response measures in order to increase public awareness of AI safety in all respects. We should guide and support industry associations in the fields of cybersecurity and AI to enhance industry self-regulation, and formulate self-regulation conventions that exceed regulatory requirements and serve exemplary roles. We should guide and encourage AI technology R&D institutions and service providers to continue to improve their safety capacity. A mechanism for handling public complaints and reports on AI risks and hazards should be established, forming an effective social supervision atmosphere for AI safety. 政府、エンタープライズ、公共サービス部門におけるAIの安全かつ適切な利用に関する教育と訓練を強化すべきである。AIのリスクと予防・対応策に関する知識の普及を強化し、AIの安全性に対する国民の意識をあらゆる面で高めるべきである。サイバーセキュリティとAIの分野における業界団体が業界の自主規制を強化し、規制要件を超える自主規制規約を策定し、模範的な役割を果たすよう、業界団体を指導・支援すべきである。AI技術の研究開発機構とサービスプロバイダが、安全性の能力を継続的に改善するよう指導・奨励すべきである。AIのリスクと危険性に関する公衆の苦情や報告に対応するメカニズムを構築し、AIの安全性に関する効果的な社会監督の環境を形成すべきである。
5.10 To promote international exchange and cooperation on AI safety governance.  5.10 AIの安全ガバナンスに関する国際交流と協力を推進する。
We should actively make efforts to conduct cooperation with countries, support the building of an international institution on AI governance within the United Nations framework to coordinate major issues related to AI development, safety, security, and governance. We should advance cooperation on AI safety governance under multilateral mechanisms such as APEC, G20 and BRICS, and strengthen cooperation with Belt and Road partner countries and Global South countries. Efforts should be made to study the matters relating to the construction of an AI safety governance alliance to increase the representation and voice of developing countries in global AI governance. AI enterprises and institutions should be encouraged to engage in international exchanges and cooperation, share their best practices, jointly develop international standards of AI safety.  AIの開発、安全性、セキュリティ、ガバナンスに関する主要な問題を調整するため、国連の枠組み内でAIガバナンスに関する国際機構の構築を支援し、各国との協力を積極的に行うべきである。我々は、APEC、G20、BRICSなどの多国間メカニズムの下でAI安全ガバナンスに関する協力を進め、一帯一路パートナー諸国およびグローバル・サウス諸国との協力を強化すべきである。AIのグローバルガバナンスにおける途上国の代表性と発言力を高めるために、AI安全ガバナンス同盟の構築に関する事項の研究に努めるべきである。AI企業および機構は、国際交流と協力を奨励し、ベストプラクティスを共有し、AI安全の国際標準を共同開発すべきである。 
6. Safety guidelines for AI development and application 6. AIの開発と応用に関する安全ガイドライン
6.1 Safety guidelines for model algorithm developers 6.1 モデルアルゴリズム開発者のための安全ガイドライン
(a) Developers should uphold a people-centered approach, adhere to the principle of AI for good, and follow science and technology ethics in key stages such as requirement analysis, project initiation, model design and development, and training data selection and use, by taking measures such as internal discussions, organizing expert evaluations, conducting technological ethical reviews, listening to public opinions, communicating and exchanging ideas with potential target audience, and strengthening employee safety education and training. (a) 開発者は、人間中心のアプローチを堅持し、AI for goodの原則を遵守し、要件分析、プロジェクト 内部での議論、専門家の評価の実施、技術倫理審査の実施、世論の聴取、潜在的な対象者とのコミュニケーションや意見交換、従業員の安全教育や研修の強化などの措置を講じることにより、要件分析、プロジェクトの開始、モデルの設計と開発、訓練データの選択と使用などの重要な段階において、人間中心のアプローチを維持し、AIの善用という原則に従い、科学技術倫理に従うべきである。
(b) Developers should strengthening data security and personal information protection, respect intellectual property and copyright, and ensure that data sources are clear and acquisition methods are compliant. Developers should establish a comprehensive data security management procedure, ensuring data security and quality as well as compliant use, to prevent risks such as data leakage, loss, and diffusion, and properly handle user data when terminating AI products. (b) 開発者は、データセキュリティと個人情報の保護を強化し、知的財産権と著作権を尊重し、データソースが明確であり、取得方法が適法であることを保証すべきである。開発者は、データ漏洩、損失、拡散などのリスクを防止し、AI製品の終了時にユーザーデータを適切に処理するために、データセキュリティと品質を確保し、コンプライアンスに準拠した利用を徹底した包括的なデータセキュリティ管理手順を確立すべきである。
(c) Developers should guarantee the security of training environment for AI model algorithms, including cybersecurity configurations and data encryption measures. (c) 開発者は、サイバーセキュリティ構成やデータ暗号化対策など、AIモデルアルゴリズムのトレーニング環境のセキュリティを保証すべきである。
(d) Developers should assess potential biases in AI models and algorithms, improve sampling and testing for training data content and quality, and come up with effective and reliable alignment algorithms to ensure risks like value and ethical risks are controllable. (d) 開発者は、AIモデルおよびアルゴリズムにおける潜在的なバイアスをアセスメントし、学習データのコンテンツおよび品質に関するサンプリングとテストを改善し、価値リスクや倫理リスクなどのリスクを制御可能なものとするために、効果的かつ信頼性の高いアラインメントアルゴリズムを考案すべきである。
(e) Developers should evaluate the readiness of AI products and services based on the legal and risk management requirements of the target markets. (e) 開発者は、対象市場の法的およびリスクマネジメント要件に基づいて、AI製品およびサービスの準備状況を評価すべきである。
(f) Developers should effectively manage different versions of AI products and related datasets. Commercial versions should be capable of reverting to previous versions if necessary. (f) 開発者は、AI製品および関連データセットの異なるバージョンを効果的に管理すべきである。商用バージョンは、必要に応じて以前のバージョンに戻せるようにすべきである。
(g) Developers should regularly conduct safety and security evaluation tests. Before testing, they should define test objectives, scope, safety and security dimensions, and construct diverse test datasets covering all kinds of application scenarios.  (g) 開発者は、安全性およびセキュリティ評価テストを定期的に実施すべきである。テスト実施前に、テストの目的、範囲、安全性およびセキュリティの次元を定義し、あらゆる種類のアプリケーションシナリオを網羅する多様なテストデータセットを構築すべきである。
(h) Developers should formulate clear test rules and methods, including manual testing, automated testing, and hybrid testing, and utilize technologies such as sandbox simulations to fully test and verify models.  (h) 開発者は、手動テスト、自動テスト、ハイブリッドテストを含む明確なテストルールと方法を策定し、サンドボックスシミュレーションなどの技術を活用して、モデルを十分にテストし検証すべきである。
(i) Developers should evaluate tolerance of AI products and services for external interferences and notify service providers and users in forms of application scope, precautions, and usage prohibitions.  (i) 開発者は、AI製品およびサービスが外部からの干渉に対してどの程度耐性があるかを評価し、適用範囲、注意事項、使用禁止などの形でサービスプロバイダおよびユーザーに通知すべきである。
(j) Developers should generate detailed test reports to analyze safety and security issues, and propose improvement plans.  (j) 開発者は、安全性とセキュリティの問題を分析し、改善計画を提案するために、詳細なテストレポートを作成すべきである。
6.2 Safety guidelines for AI service providers  6.2 AIサービスプロバイダの安全ガイドライン
(a) Service providers should publicize capabilities, limitations, target users, and use cases of AI products and services.  (a) サービスプロバイダは、AI製品およびサービスの機能、限界、対象ユーザー、および使用事例を公表すべきである。
(b) Service providers should inform users of the application scope, precautions, and usage prohibitions of AI products and services in a user-friendly manner within contracts or service agreements, supporting informed choices and cautious use by users. (b) サービスプロバイダは、契約またはサービス契約の中で、ユーザーにAI製品およびサービスの適用範囲、注意事項、および使用禁止事項をユーザーにわかりやすい方法で通知し、ユーザーによる情報に基づいた選択と慎重な使用を支援すべきである。
(c) Service providers should support users to undertake responsibilities of supervision and control within documents such as consent forms and service agreements. (c) サービスプロバイダは、同意書やサービス契約などの文書の中で、ユーザーが監督と制御の責任を負うことを支援すべきである。
(d) Service providers should ensure that users understand AI products' accuracy, and prepare explanatory plans when AI decisions exert significant impact. (d) サービスプロバイダは、ユーザーがAI製品の精度を理解していることを確認し、AIの判断が重大な影響を及ぼす場合は説明計画を準備すべきである。
(e) Service providers should review responsibility statements provided by developers to ensure that the chain of responsibility can be traced back to any recursively employed AI models. (e) サービスプロバイダは、開発者が提供する責任に関する声明を検証し、責任の連鎖が再帰的に使用されるAIモデルにまで遡って追跡できることを確認すべきである。
(f) Service providers should increase awareness of AI risk prevention, establish and improve a real-time risk monitoring and management mechanism, and continuously track operational security risks. (f) サービス・プロバイダは、AIリスクの予防に対する意識を高め、リアルタイムのリスクモニタリングおよびリスクマネジメントの仕組みを構築・改善し、運用上のセキュリティリスクを継続的に追跡すべきである。
(g) Service providers should assess the ability of AI products and services to withstand or overcome adverse conditions under faults, attacks, or other anomalies, and prevent unexpected results and behavioral errors, ensuring that a minimum level of effective functionality is maintained. (g) サービス・プロバイダは、AI製品およびサービスが、エラー、攻撃、その他の異常な状況下で、悪条件に耐える、または悪条件を克服する能力をアセスメントし、予期せぬ結果や動作エラーを防止し、最低限の有効な機能が維持されることを保証すべきである。
(h) Service providers should promptly report safety and security incidents and vulnerabilities detected in AI system operations to competent authorities. (h) サービスプロバイダは、AIシステムの運用において検知した安全およびセキュリティインシデント、ならびに脆弱性を、速やかに管轄当局に報告すべきである。
(i) Service providers should stipulate in contracts or service agreements that they have the right to take corrective measures or terminate services early upon detecting misuse and abuse not conforming to usage intention and stated limitations. (i) サービスプロバイダは、利用目的や規定された制限に適合しない誤用や乱用を検知した場合、是正措置を講じたり、早期にサービスを終了する権利を有することを、契約またはサービス契約に明記すべきである。
(j) Service providers should assess the impact of AI products on users, preventing harm to users' mental and physical health, life, and property.  (j) サービスプロバイダは、AI製品がユーザーに与える影響をアセスメントし、ユーザーの心身の健康、生命、財産への被害を防止すべきである。
6.3 Safety guidelines for users in key areas 6.3 主要分野におけるユーザーの安全ガイドライン
(a) For users in key sectors such as government departments, critical information infrastructure, and areas directly affecting public safety and people's health and safety, they should prudently assess the long-term and potential impacts of applying AI technology in the target application scenarios and conduct risk assessments and grading to avoid technology abuse. (a) 政府部門、重要な情報インフラ、公共の安全や人々の健康と安全に直接影響する分野など、主要分野のユーザーは、対象となるアプリケーションシナリオにAI技術を適用した場合の長期的および潜在的な影響を慎重にアセスメントし、リスクアセスメントと格付けを実施して、技術の悪用を回避すべきである。
(b) Users should regularly perform system audits on the applicable scenarios, safety, reliability, and controllability of AI systems, while enhancing awareness of risk prevention and response capabilities. (b) ユーザーは、リスク予防と対応能力に対する意識を高めつつ、該当するシナリオ、AIシステムの安全性、信頼性、制御可能性について、定期的にシステム監査を行うべきである。
(c) Users should fully understand its data processing and privacy protection measures before using an AI product. (c) ユーザーは、AI製品を使用する前に、そのデータ処理およびプライバシー保護対策を十分に理解すべきである。
(d) Users should use high-security passwords and enable multi-factor authentication mechanisms to enhance account security. (d) ユーザーは、アカウントのセキュリティを強化するために、安全性の高いパスワードを使用し、多要素認証メカニズムを有効にすべきである。
(e) Users should enhance their capabilities in areas such as network security and supply chain security to reduce the risk of AI systems being attacked and important data being stolen or leaked, as well as ensure uninterrupted business. (e) ユーザーは、AIシステムが攻撃を受け、重要なデータが盗難または漏洩されるリスクを低減し、かつ、事業の中断を防止するために、ネットワークセキュリティやサプライチェーンセキュリティなどの分野における能力を強化すべきである。
(f) Users should properly limit data access, develop data backup and recovery plans, and regularly check data processing flow. (f) ユーザーは、データアクセスを適切に制限し、データバックアップおよび復旧計画を策定し、データ処理の流れを定期的に確認すべきである。
(g) Users should ensure that operations comply with confidentiality provisions and use encryption technology and other protective measures when processing sensitive data. (g) ユーザーは、機密保持規定に準拠した運用を確保し、機密データを処理する際には暗号化技術やその他の防御策を使用すべきである。
(h) Users should effectively supervise the behavior and impact of AI, and ensure that AI products and services operate under human authorization and remain subject to human control. (h) ユーザーは、AIの行動と影響を効果的に監督し、AI製品およびサービスが人間の認可の下で運用され、人間の管理下にあることを確保すべきである。
(i) Users should avoid complete reliance on AI for decision making, monitor and record instances where users turn down AI decisions, and analyze inconsistencies in decision-making. They should have the capability to swiftly shift to human-based or traditional methods in the event of an accident. (i) 利用者は、意思決定においてAIに完全に依存することを避け、AIの判断を拒否する事例を監視・記録し、意思決定における矛盾を分析すべきである。また、事故が発生した場合には、迅速に人間による方法や従来の方法に切り替える能力を備えるべきである。
6.4 Safety guidelines for general users 6.4 一般利用者向けの安全ガイドライン
(a) Users should raise their awareness of the potential safety risks associated with AI products, and select AI products from reputable providers. (a) 利用者は、AI製品に関連する潜在的な安全リスクに対する認識を高め、信頼できるプロバイダのAI製品を選択すべきである。
(b) Before using an AI product, users should carefully review the contract or service terms to understand its functions, limitations, and privacy policies. Users should accurately recognize the limitations of AI products in making judgments and decisions, and set reasonable expectations. (b) 利用者は、AI製品を使用する前に、契約またはサービス条件を慎重に確認し、その機能、限界、プライバシーポリシーを理解すべきである。利用者は、AI製品が判断や決定を行う際の限界を正確に認識し、合理的な期待を設定すべきである。
(c) Users should enhance awareness of personal information protection and avoid entering sensitive information unnecessarily. (c) 利用者は、個人情報保護に対する意識を高め、不必要に機密情報を入力しないようにすべきである。
(d) Users should be informed about data processing practices and avoid using products that are not in conformity with privacy principles. (d) 利用者は、データ処理の慣行について知らされるべきであり、プライバシー原則に準拠していない製品を使用しないようにすべきである。
(e) Users should be mindful of cybersecurity risks when using AI products to prevent them from becoming targets of cyberattacks. (e) 利用者は、AI製品を使用する際にサイバーセキュリティリスクを意識し、サイバー攻撃の標的にならないようにすべきである。
(f) Users should be aware of the potential impact of AI products on minors and take steps to prevent addiction and excessive use. (f) 利用者は、AI製品が未成年者に与える潜在的な影響を認識し、依存や過剰利用を防ぐための措置を講じるべきである。
Table of AI Safety and Security Risks to Technical Countermeasures and Comprehensive Governance Measures 表 技術的対策と包括的ガバナンス対策のAIの安全性とセキュリティリスク

 

 


 

● まるちゃんの情報セキュリティ気まぐれ日記

 中国

・2023.09.11 中国 生成的AIについての専門家の解釈 (2023.08.29)

・2023.07.14 中国 国家サイバースペース管理局他 生成的AIサービス管理暫定弁法 施行は2023.08.15

・2023.04.12 中国 意見募集 生成的人工知能サービス管理弁法

・2022.04.25 中国 人工知能白書 2022 (2022.04.12)

・2021.08.04 中国 通信院 信頼できる人工知能についての白書 at 2021.07.09

 

  日本...

・2024.04.20 経済産業省 AI事業者ガイドライン(第1.0版)

 

米国

・2024.03.31 米国 連邦政府機関の人工知能利用におけるガバナンス、イノベーション、リスク管理を推進するためのOMBの方針

・2023.12.15 連邦政府テクノロジー・リーダーがOMBのAI政策ドラフトについて知っておくべきことトップ10

・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令

 

その他

・2024.06.07 欧州委員会 安全で信頼できる人工知能におけるEUのリーダーシップを強化するため、AI事務局を設置 (2024.05.29)

・2024.05.07 OECD 閣僚会議声明とAI原則の改訂...

・2023.03.23 OECD AIにおけるアカウンタビリティの高度化 (2023.02.23)

・2024.02.07 ASEAN AIのガバナンスと倫理のガイド + 第4回デジタル大臣会合 シンガポール宣言...

・2024.02.06 経済産業省 AIマネジメントシステムの国際規格が発行されました (2024.01.15)

・2021.06.28 EU 外交政策ツールとしての人工知能ガバナンス

| | Comments (0)

2024.06.29

経済産業省 厚生労働省 「ロボット技術の介護利用における重点分野」を改訂と「介護テクノロジー利用の重点分野」への名称変更

こんにちは、丸山満彦です。

ちょっと気になったので...

介護テクノロジー利用の重点分野として、新たに3分野を追加し、合計で9分野16項目になるようです...

新たに加えた分野...

・機能訓練支援
・食事・栄養管理支援
・認知症生活支援・認知症ケア支援

 

経済産業省

・2024.06.28「ロボット技術の介護利用における重点分野」を改訂しました - テクノロジーの活用で、介護現場の課題解決を推進します!

・・[PDF] 【別添】ロボット技術の介護利用における重点分野(令和6年6月改訂)

・・[PDF] (参考)介護テクノロジー利用の重点分野の全体図と普及率

20240629-74305

移乗支援(装着) 介助者のパワーアシストを行う装着型の機器
移乗支援(非装着) 介助者による移乗動作のアシストを行う非装着型 の機器

排泄支援(排泄物処理) 排泄物の処理にロボット技術を用いた設置位置の 調整可能なトイレ
排泄支援(動作支援) ロボット技術を用いてトイレ内での下衣の着脱等 の排泄の一連の動作を支援する機器
排泄支援(排泄予測・検知)排泄を予測又は検知し、排泄タイミングの把握やトイレへの誘導を支援する機器

移動支援(屋外) 高齢者等の外出をサポートし、荷物等を安全に 運搬できるロボット技術を用いた歩行支援機器
移動支援(屋内)高齢者等の屋内移動や立ち座りをサポートし、特にトイレへの往復やトイレ内での姿勢保持を支援するロボット技術を用いた歩行支援機器
移動支援(装着)
高齢者等の外出等をサポートし、転倒予防や歩行等を補助するロボット技術を用いた装着型の移動支援機器

入浴支援 入浴におけるケアや動作を支援する機器

見守り(施設)介護施設において使用する、各種センサー等や外部通信機能を備えた機器システム、ブラットフォーム
見守り(在宅)在宅において使用する、各種センサー等や外部通言機能を備えた機器システム、ブラットフォーム
コミュニケーション 高齢者等のコミュニケーションを支援する機器

介護業務支援 介護業務に伴う情報を収集・蓄積し、それを基に、高齢者等への介護サービス提供に関わる業務に活用することを可能とする機器・システム

機能訓練支援 介護職等が行う身体機能や生活機能の訓練における各業務(アセスメント・計画作成・訓練実施)を支援する機器・システム
食事・栄養管理支援 高齢者等の食事・栄養管理に関する周辺業務を支援する機器・システム
認知症生活支援・認知症ケア支援 認知機能が低下した高齢者等の自立した日常生活または個別ケアを支援する機器・システム

・・[PDF] (参考)介護テクノロジー利用の重点分野定義

20240629-94751

 

 ● 厚生労働省

・2024.06.28 「ロボット技術の介護利用における重点分野」を改訂しました

・プレスリリース

・【別添】ロボット技術の介護利用における重点分野(令和6年6月改訂)

・(参考)介護テクノロジー利用の重点分野の全体図と普及率

・(参考)介護テクノロジー利用の重点分野定義

 

 

| | Comments (0)

2024.05.21

英国 科学技術革新省 先進AIの安全性に関する国際科学報告書

こんにちは、丸山満彦です。

英国の科学技術革新省とAI研究所が「先進AIの安全性に関する国際科学報告書」の中間報告を公表していますね...

「汎用AI(多種多様なタスクをこなすAI)の科学的理解の現状を、そのリスクの理解と管理に焦点をあててまとめたもの」ということのようです...

日本人としては、SONYのCTOの北野宏明さん[wikipedia]の名前がありますね...

参考文献の数がすごい...

 

・2024.05.17 [PDF] International Scientific Report on the Safety of Advanced AI

20240521-44605

・[DOCX][PDF] 仮訳

 

目次...

Forewords まえがき
Executive Summary エグゼクティブサマリー
1 Introduction 1 序文
2 Capabilities 2 能力
2.1 How does General-Purpose AI gain its capabilities? 2.1 汎用AIはどのようにして能力を獲得するのか?
2.2 What current general-purpose AI systems are capable of 2.2 現在の汎用AIシステムは何ができるのか?
2.2.1 Capabilities by modality . 2.2.1 モダリティ別の能力 .
2.2.2 Capabilities and limitations by skill . 2.2.2 スキル別の能力と限界 .
2.3 Recent trends in capabilities and their drivers  2.3 能力の最近の傾向とその促進要因 
2.3.1 Recent trends in compute, data, and algorithms 2.3.1 計算、データ、アルゴリズムに関する最近の傾向
2.3.2 Recent trends in capabilities 2.3.2 能力の最近の傾向
2.4 Capability progress in coming years  2.4 今後数年間における能力の進歩 
2.4.1 If resources continue to be scaled rapidly, would this lead to rapid advancements?  2.4.1 リソースが急速に拡張され続ければ、急速な進歩につながるか?
2.4.2 Will resources be scaled rapidly? . 2.4.2 リソースは急速に拡大するだろうか?
2.4.3 Will algorithmic progress lead to rapid advancements? . 2.4.3 アルゴリズムの進歩は急速な進歩をもたらすか?.
3 Methodology to assess and understand general-purpose AI systems . 3 汎用AIシステムのアセスメントと理解のための方法論 .
3.1 General-purpose AI assessments serve to evaluate model capabilities and impacts.  3.1 汎用AIのアセスメントは、モデルの能力と影響を評価するのに役立つ。
3.2 Approaches for model performance analysis  3.2 モデル性能分析のためのアプローチ 
3.2.1 Case studies  3.2.1 ケーススタディ 
3.2.2 Benchmarks  3.2.2 ベンチマーク 
3.2.3 Red-teaming and adversarial attacks 3.2.3 レッドチームと敵対的攻撃
3.2.4 Auditing  3.2.4 監査 
3.3 Model transparency, explanations, and interpretations  3.3 モデルの透明性、説明、解釈 
3.4 Challenges with studying general-purpose AI systems  3.4 汎用AIシステム研究の課題 
4 Risks  4 リスク 
4.1 Malicious use risks  4.1 悪意のある使用のリスク 
4.1.1 Harm to individuals through fake content  4.1.1 偽コンテンツによる個人への被害 
4.1.2 Disinformation and manipulation of public opinion  4.1.2 偽情報と世論操作 
4.1.3 Cyber offence . 4.1.3 サイバー犯罪
4.1.4 Dual use science risks 4.1.4 科学のデュアルユースリスク
4.2 Risks from malfunctions  4.2 誤作動によるリスク
4.2.1 Risks from product functionality issues  4.2.1 製品の機能問題によるリスク
4.2.2 Risks from bias and underrepresentation 4.2.2 バイアスと過少代表によるリスク
4.2.3 Loss of control 4.2.3 制御不能
4.3 Systemic risks  4.3 システミック・リスク 
4.3.1 Labour market risks  4.3.1 労働市場のリスク
4.3.2 Global AI divide 4.3.2 グローバルAI格差
4.3.3 Market concentration risks and single points of failure  4.3.3 市場集中リスクと単一障害点
4.3.4 Risks to the environment  4.3.4 環境に対するリスク
4.3.5 Risks to privacy  4.3.5 プライバシーに対するリスク 
4.3.6 Copyright infringement  4.3.6 著作権侵害 
4.4 Cross-cutting risk factors  4.4 分野横断的リスク要因 
4.4.1 Cross-cutting technical risk factors 4.4.1 分野横断的な技術的リスク要因
4.4.2 Cross-cutting societal risk factors  4.4.2 分野横断的な社会的リスク要因.
5 Technical approaches to mitigate risks  5 リスク低減のための技術的アプローチ 
5.1 Risk management and safety engineering  5.1 リスクマネジメントと安全工学 
5.1.1 Risk assessment 5.1.1 リスクアセスメント
5.1.2 Risk management 5.1.2 リスクマネジメント
5.2 Training more trustworthy models  5.2 より信頼できるモデルの育成 
5.2.1 Aligning general-purpose AI systems with developer intentions  5.2.1 汎用AIシステムと開発者の意図を一致させる 
5.2.2 Reducing the hallucination of falsehoods  5.2.2 虚偽の幻覚を減らす 
5.2.3 Improving robustness to failures  5.2.3 失敗に対する頑健性を改善する 
5.2.4 Removing hazardous capabilities  5.2.4 危険な能力を取り除く 
5.2.5 Analysing and editing the inner workings of models 5.2.5 モデルの内部構造を分析・編集する
5.3 Monitoring and intervention  5.3 監視と介入 
5.3.1 Detecting general-purpose AI-generated content . 5.3.1 生成的AIコンテンツの検知.
5.3.2 Detecting anomalies and attacks  5.3.2 異常や攻撃を検知する 
5.3.3 Explaining model actions . 5.3.3 モデルの行動を説明する .
5.3.4 Building safeguards into AI systems  5.3.4 AIシステムにセーフガードを組み込む 
5.4 Technical approaches to fairness and representation in general-purpose AI systems 5.4 汎用AIシステムにおける公平性と表現に対する技術的アプローチ
5.4.1 Mitigation of bias and discrimination works throughout the stages of general-purpose AI development and deployment 5.4.1 バイアスと識別の低減は、汎用AIの開発と展開のステージを通して機能する
5.4.2 Is fairness in general-purpose AI systems achievable? 5.4.2 汎用AIシステムにおける公平性は達成可能か?
5.4.3 Challenges in achieving fair general-purpose AI systems 5.4.3 公正な汎用AIシステムを実現する上での課題
5.5 Privacy methods for general-purpose AI systems 5.5 汎用AIシステムのプライバシー手法
6 Conclusion 6 まとめ
Chair’s note on the interim report 中間報告に対する座長のコメント
Differing views 見解の相違
Glossary 用語解説
References 参考文献

 

エグゼクティブサマリー...

Executive Summary  エグゼクティブ・サマリー 
About this report  この報告書について 
• This is the interim publication of the first ‘International Scientific Report on the Safety of Advanced AI’. A diverse group of 75 artificial intelligence (AI) experts contributed to this report, including an international Expert Advisory Panel nominated by 30 countries, the European Union (EU), and the United Nations (UN).  • 本書は、初の「先進的AIの安全性に関する国際科学報告書」の中間発表である。この報告書には、30カ国、欧州連合(EU)、国連(UN)から推薦された国際専門家諮問委員会を含む、75人の人工知能(AI)の専門家からなる多様なグループが貢献した。 
• Led by the Chair of this report, the independent experts writing this report collectively had full discretion over its content.  • 本報告書の議長を筆頭に、本報告書を執筆した独立専門家たちは、その内容に関して全面的な裁量権を有していた。 
• At a time of unprecedented progress in AI development, this first publication restricts its focus to a type of AI that has advanced particularly rapidly in recent years: General-purpose AI, or AI that can perform a wide variety of tasks. Amid rapid advancements, research on general-purpose AI is currently in a time of scientific discovery and is not yet settled science.  • AIの開発がかつてないほど進展している現在、この最初の出版物は、近年特に急速に進歩しているAIのタイプに焦点を絞っている:汎用AI、すなわちさまざまなタスクを実行できるAIである。急速な進歩の中で、汎用AIの研究は現在、科学的発見の時期にあり、まだ定まった科学ではない。 
• People around the world will only be able to enjoy general-purpose AI’s many potential benefits safely if its risks are appropriately managed. This report focuses on identifying these risks and evaluating technical methods for assessing and mitigating them. It does not aim to comprehensively assess all possible societal impacts of general-purpose AI, including its many potential benefits.  • そのリスクが適切に管理されて初めて、世界中の人々が汎用AIの多くの潜在的利益を安全に享受できるようになる。本報告書は、こうしたリスクを特定し、それを評価・軽減するための技術的手法を評価することに焦点を当てている。汎用AIがもたらす多くの潜在的便益を含め、考えられるすべての社会的影響を包括的に評価することを目的としたものではない。 
• For the first time in history, this interim report brought together experts nominated by 30 countries, the EU, and the UN, and other world-leading experts, to provide a shared scientific, evidence-based foundation for discussions and decisions about general-purpose AI safety. We continue to disagree on several questions, minor and major, around general-purpose AI capabilities, risks, and risk mitigations. But we consider this project essential for improving our collective understanding of this technology and its potential risks, and for moving closer towards consensus and effective risk mitigation to ensure people can experience the potential benefits of general-purpose AI safely. The stakes are high. We look forward to continuing this effort.  • 史上初めて、この中間報告書は、30カ国、EU、国連から推薦された専門家と、その他の世界をリードする専門家が一堂に会し、汎用AIの安全性に関する議論と意思決定のための、科学的根拠に基づく共通の基盤を提供した。我々は、汎用AIの能力、リスク、リスク軽減策をめぐるいくつかの疑問について、些細なものから大きなものまで、意見の相違が続いている。しかし、我々はこのプロジェクトが、このテクノロジーとその潜在的リスクに関する我々の集合的理解を向上させ、人々が安全に汎用AIの潜在的利益を体験できるようにするためのコンセンサスと効果的なリスク軽減に近づくために不可欠であると考えている。賭け金は大きい。我々は、この取り組みを継続することを楽しみにしている。
Highlights of the executive summary  エグゼクティブ・サマリーのハイライト 
• If properly governed, general-purpose AI can be applied to advance the public interest, potentially leading to enhanced wellbeing, more prosperity, and new scientific discoveries. However, malfunctioning or maliciously used general-purpose AI can also cause harm, for instance through biased decisions in high-stakes settings or through scams, fake media, or privacy violations.  • 適切に管理されれば、汎用AIは公共の利益を増進するために応用され、幸福の増進、さらなる繁栄、新たな科学的発見につながる可能性がある。しかし、誤作動や悪意を持って使用された汎用AIは、例えば、利害関係の強い場面での偏った判断や、詐欺、フェイクメディア、プライバシー侵害などを通じて、危害をもたらす可能性もある。 
• As general-purpose AI capabilities continue to advance, risks such as large-scale labour market impacts, AI-enabled hacking or biological attacks, and society losing control over general-purpose AI could emerge, although the likelihood of these scenarios is debated among researchers. Different views on these risks often stem from differing expectations about the steps society will take to limit them, the effectiveness of those steps, and how rapidly general-purpose AI capabilities will be advanced.  • 汎用AIの能力が進歩し続けるにつれて、大規模な労働市場への影響、AIを利用したハッキングや生物学的攻撃、社会が汎用AIを制御できなくなるといったリスクが出現する可能性があるが、こうしたシナリオの可能性については研究者の間で議論が分かれている。これらのリスクに関する見解の違いは、社会がリスクを制限するために取る措置、その措置の有効性、汎用AIの能力がどの程度急速に進歩するかについての期待の違いから生じることが多い。 
• There is considerable uncertainty about the rate of future progress in general-purpose AI capabilities. Some experts think a slowdown of progress is by far most likely, while other experts think that extremely rapid progress is possible or likely.  • 汎用AI能力の将来的な進歩速度にはかなりの不確実性がある。進歩が鈍化する可能性が圧倒的に高いと考える専門家もいれば、極めて急速な進歩が可能またはあり得ると考える専門家もいる。 
• There are various technical methods to assess and reduce risks from general-purpose AI that developers can employ and regulators can require, but they all have limitations. For example, current techniques for explaining why general-purpose AI models produce any given output are severely limited.  • 汎用AIによるリスクを評価し、低減するために、開発者が採用でき、規制当局が要求できるさまざまな技術的手法があるが、いずれも限界がある。例えば、汎用AIモデルがどのようなアウトプットを出すのかを説明するための現在の技術は、非常に限られている。 
• The future of general-purpose AI technology is uncertain, with a wide range of trajectories appearing possible even in the near future, including both very positive and very negative outcomes. But nothing about the future of AI is inevitable. It will be the decisions of societies and governments that will determine the future of AI. This interim report aims to facilitate constructive discussion about these decisions.  • 汎用AI技術の未来は不確実であり、非常にポジティブな結果も非常にネガティブな結果も含め、近い将来でさえ幅広い軌跡があり得ると思われる。しかし、AIの未来に必然性はない。AIの未来を決定するのは、社会と政府の決断である。本中間報告書は、こうした決定に関する建設的な議論を促進することを目的としている。 
This report synthesises the state of scientific understanding of general-purpose AI – AI that can perform a wide variety of tasks – with a focus on understanding and managing its risks  本報告書は、汎用AI(多種多様なタスクをこなすAI)の科学的理解の現状を、そのリスクの理解と管理に焦点をあててまとめたものである。 
The capabilities of systems using AI have been advancing rapidly. This has highlighted the many opportunities that AI creates for business, research, government, and private life. It has also led to an increased awareness of current harms and potential future risks associated with advanced AI.  AIを使ったシステムの能力は急速に進歩している。このことは、AIがビジネス、研究、政府、私生活にもたらす多くの機会を浮き彫りにしている。また、高度なAIに関連する現在の危害や将来の潜在的なリスクに対する認識も高まっている。 
The purpose of the International Scientific Report on the Safety of Advanced AI is to take a step towards a shared international understanding of AI risks and how they can be mitigated. This first interim publication of the report restricts its focus to a type of AI whose capabilities have advanced particularly rapidly: general-purpose AI, or AI that can perform a wide variety of tasks.  先進AIの安全性に関する国際科学報告書」の目的は、AIのリスクとその軽減方法について、国際的な共通理解を得るための一歩を踏み出すことである。この報告書の最初の中間発表では、特に急速に能力が進歩したAIの種類、すなわち汎用AI、すなわち多種多様なタスクを実行できるAIに焦点を絞っている。 
Amid rapid advancements, research on general-purpose AI is currently in a time of scientific discovery and is not yet settled science. The report provides a snapshot of the current scientific understanding of general-purpose AI and its risks. This includes identifying areas of scientific consensus and areas where there are different views or open research questions.  急速な進歩の中で、汎用AIの研究は現在、科学的発見の時期にあり、まだ科学として確立していない。本報告書は、汎用AIとそのリスクに関する現在の科学的理解のスナップショットを提供する。これには、科学的コンセンサスが得られている分野と、異なる見解や未解決の研究課題がある分野の特定が含まれる。 
People around the world will only be able to enjoy the potential benefits of general-purpose AI safely if its risks are appropriately managed. This report focuses on identifying risks from general-purpose AI and evaluating technical methods for assessing and mitigating them, including the beneficial use of general-purpose AI to mitigate risks. It does not aim to comprehensively assess all possible societal impacts of general-purpose AI, including what benefits it may offer.  汎用AIのリスクが適切に管理されて初めて、世界中の人々が汎用AIの潜在的な恩恵を安全に享受できるようになる。本報告書は、汎用AIがもたらすリスクを特定し、リスクを軽減するための汎用AIの有益な利用を含め、リスクを評価・軽減するための技術的手法を評価することに焦点を当てている。汎用AIがどのような便益をもたらすかも含め、汎用AIの社会的影響の可能性をすべて包括的に評価することは目的としていない。 
General-purpose AI capabilities have grown rapidly in recent years according to many metrics, and there is no consensus on how to predict future progress, making a wide range of scenarios appear possible  多くの指標によれば、汎用AIの能力は近年急速に成長しており、将来の進歩を予測する方法についてコンセンサスは得られていない。 
According to many metrics, general-purpose AI capabilities are progressing rapidly. Five years ago, the leading general-purpose AI language models could rarely produce a coherent paragraph of text. Today, some general-purpose AI models can engage in multi-turn conversations on a wide range of topics, write short computer programs, or generate videos from a description. However, the capabilities of general-purpose AI are difficult to estimate reliably and define precisely.  多くの指標によれば、汎用AIの能力は急速に進歩している。5年前、主要な汎用AI言語モデルは、まとまった段落の文章をほとんど作成できなかった。今日、いくつかの汎用AIモデルは、幅広いトピックについて何ターンも会話をしたり、短いコンピューター・プログラムを書いたり、説明から動画を生成したりできる。しかし、汎用AIの能力を確実に見積もり、正確に定義することは難しい。 
The pace of general-purpose AI advancement depends on both the rate of technological advancements and the regulatory environment. This report focuses on the technological aspects and does not provide a discussion of how regulatory efforts might affect the speed of development and deployment of general-purpose AI.  汎用AIの進歩のペースは、技術進歩の速度と規制環境の両方に左右される。本報告書では、技術的な側面に焦点を当て、規制の取り組みが汎用AIの開発・展開のスピードにどのような影響を与えるかについては触れていない。 
AI developers have rapidly advanced general-purpose AI capabilities in recent years mostly by continuously increasing resources used for training new models (a trend called ‘scaling’) and refining existing algorithms. For example, state-of-the-art AI models have seen annual increases of approximately 4x in computational resources (‘compute’) used for training, 2.5x in training dataset size, and 1.5-3x in algorithmic efficiency (performance relative to compute). Whether ‘scaling’ has resulted in progress on fundamental challenges such as causal reasoning is debated among researchers.  AI開発者は近年、新しいモデルの学習に使用するリソースを継続的に増やし(「スケーリング」と呼ばれる傾向)、既存のアルゴリズムを改良することで、汎用AIの能力を急速に高めてきた。例えば、最先端のAIモデルでは、学習に使用される計算リソース(「コンピュート」)が毎年約4倍、学習データセットサイズが2.5倍、アルゴリズム効率(コンピュートに対するパフォーマンス)が1.5~3倍に増加している。スケーリング」が因果推論のような基本的な課題の進展をもたらしたかどうかは、研究者の間で議論されている。 
The pace of future progress in general-purpose AI capabilities has substantial implications for managing emerging risks, but experts disagree on what to expect even in the near future. Experts variously support the possibility of general-purpose AI capabilities advancing slowly, rapidly, or extremely rapidly. This disagreement involves a key question: will continued ‘scaling’ of resources and refining existing techniques be sufficient to yield rapid progress and solve issues such as reliability and factual accuracy, or are new research breakthroughs required to substantially advance generalpurpose AI abilities?  汎用AI能力の今後の進歩ペースは、新たなリスクを管理する上で大きな意味を持つが、専門家の間でも、近い将来に何が起こるかについては意見が分かれている。専門家の間では、汎用AIの能力がゆっくりと、あるいは急速に、あるいは極めて急速に進歩する可能性をさまざまに支持している。この意見の相違は、リソースの「スケーリング」を継続し、既存の技術を洗練させるだけで、急速な進歩をもたらし、信頼性や事実の正確さといった問題を解決するのに十分なのか、それとも、汎用AIの能力を大幅に向上させるためには、新たな研究のブレークスルーが必要なのか、という重要な問題を含んでいる。 
Several leading companies that develop general-purpose AI are betting on ‘scaling’ to continue leading to performance improvements. If recent trends continue, by the end of 2026 some general-purpose AI models will be trained using 40x to 100x more compute than the most compute-intensive models published in 2023, combined with training methods that use this compute 3x to 20x more efficiently. However, there are potential bottlenecks to further increasing both data and compute, including the availability of data, AI chips, capital expenditure, and local energy capacity. Companies developing general-purpose AI are working to navigate these potential bottlenecks.  汎用AIを開発するいくつかの大手企業は、性能向上につながり続ける「スケーリング」に賭けている。最近のトレンドが続けば、2026年末までに、汎用AIモデルのいくつかは、2023年に発表された最も計算負荷の高いモデルよりも40倍から100倍多い計算量を使用して学習され、この計算量を3倍から20倍効率的に使用する学習方法と組み合わされることになる。しかし、データ、AIチップ、資本支出、地域のエネルギー容量などの利用可能性を含め、データと計算の両方をさらに増やすには潜在的なボトルネックがある。汎用AIを開発している企業は、これらの潜在的なボトルネックを回避するために取り組んでいる。 
Several research efforts aim to understand and evaluate generalpurpose AI more reliably, but our overall understanding of how general-purpose AI models and systems work is limited  汎用AIをより確実に理解し、評価することを目的とした研究はいくつかあるが、汎用AIのモデルやシステムがどのように機能するかについての全体的な理解は限られている。 
Approaches to managing risks from general-purpose AI often rest on the assumption that AI developers and policymakers can assess the capabilities and potential impacts of general-purpose AI models and systems. But while technical methods can help with assessment, all existing methods have limitations and cannot provide strong assurances against most harms related to general-purpose AI. Overall, the scientific understanding of the inner workings, capabilities, and societal impacts of general-purpose AI is very limited, and there is broad expert agreement that it should be a priority to improve our understanding of general-purpose AI. Some of the key challenges include:  汎用AIによるリスクを管理するアプローチは、AIの開発者や政策立案者が汎用AIのモデルやシステムの能力と潜在的な影響を評価できるという前提に立っていることが多い。しかし、技術的な手法は評価に役立つとはいえ、既存の手法にはすべて限界があり、汎用AIに関連するほとんどの危害に対して強力な保証を提供することはできない。全体として、汎用AIの内部構造、能力、社会的影響に関する科学的理解は非常に限られており、汎用AIの理解を深めることを優先すべきであるとする専門家の幅広い合意がある。主な課題には以下のようなものがある: 
• Developers still understand little about how their general-purpose AI models operate. This is because general-purpose AI models are not programmed in the traditional sense. Instead, they are trained: AI developers set up a training process that involves a lot of data, and the outcome of that training process is the general-purpose AI model. These models can consist of trillions of components, called parameters, and most of their inner workings are inscrutable, including to the model developers. Model explanation and interpretability techniques can improve researchers’ and developers’ understanding of how general-purpose AI models operate, but this research is nascent.  • 開発者は、汎用AIモデルがどのように動作するかについて、まだほとんど理解していない。というのも、汎用AIモデルは伝統的な意味でプログラミングされるわけではないからだ。その代わりに訓練される:AI開発者は、多くのデータを含む学習プロセスを設定し、その学習プロセスの結果が汎用AIモデルである。これらのモデルは、パラメータと呼ばれる何兆ものコンポーネントで構成されることがあり、その内部の仕組みのほとんどは、モデル開発者を含めて不可解である。モデルの説明と解釈可能性の技術は、汎用AIモデルがどのように動作するかについての研究者や開発者の理解を向上させることができるが、この研究はまだ始まったばかりである。 
• General-purpose AI is mainly assessed through testing the model or system on various inputs. These spot checks are helpful for assessing strengths and weaknesses, including vulnerabilities and potentially harmful capabilities, but do not provide quantitative safety guarantees. The tests often miss hazards and overestimate or underestimate capabilities because general-purpose AI systems may behave differently in different circumstances, with different users, or with additional adjustments to their components.  • 汎用AIは主に、モデルやシステムを様々な入力でテストすることで評価される。これらの抜き取り検査は、脆弱性や潜在的に有害な能力を含む長所と短所を評価するのに役立つが、定量的な安全性を保証するものではない。汎用AIシステムは、異なる状況、異なるユーザー、あるいはコンポーネントの追加調整によって異なる挙動を示す可能性があるため、テストはしばしば危険性を見逃し、能力を過大評価または過小評価する。 
• Independent actors can, in principle, audit general-purpose AI models or systems developed by a company. However, companies often do not provide independent auditors with the necessary level of direct access to models or the information about data and methods used that are needed for rigorous assessment. Several governments are beginning to build capacity for conducting technical evaluations and audits.  • 独立監査人は、原則として、企業が開発した汎用AIモデルやシステムを監査することができる。しかし、企業は独立監査人に対し、モデルへの必要なレベルの直接アクセスや、厳密な評価に必要なデータや使用方法に関する情報を提供しないことが多い。いくつかの政府は、技術的な評価や監査を実施するための能力を構築し始めている。 
• It is difficult to assess the downstream societal impact of a general-purpose AI system because research into risk assessment has not been sufficient to produce rigorous and comprehensive assessment methodologies. In addition, general-purpose AI has a wide range of use cases, which are often not predefined and only lightly restricted, complicating risk assessment further. Understanding the potential downstream societal impacts of general-purpose AI models and systems requires nuanced and multidisciplinary analysis. Increasing the representation of diverse perspectives in general-purpose AI development and evaluation processes is an ongoing technical and institutional challenge.  • リスク評価に関する研究が十分でなく、厳密かつ包括的な評価手法が生み出されていないため、汎用AIシステムの下流社会への影響を評価することは困難である。加えて、汎用AIには幅広いユースケースがあり、それらは多くの場合、事前に定義されておらず、軽く制限されているに過ぎないため、リスク評価をさらに複雑にしている。汎用AIのモデルやシステムが下流社会に与える潜在的な影響を理解するには、微妙で学際的な分析が必要である。汎用AIの開発・評価プロセスにおいて、多様な視点の代表を増やすことは、技術的・制度的な継続課題である。 
General-purpose AI can pose severe risks to individual and public safety and wellbeing  汎用AIは、個人や公共の安全と福利に深刻なリスクをもたらす可能性がある。 
This report classifies general-purpose AI risks into three categories: malicious use risks, risks from malfunctions, and systemic risks. It also discusses several cross-cutting factors that contribute to many risks.  本報告書では、汎用AIのリスクを「悪意のある使用によるリスク」「誤作動によるリスク」「システム的リスク」の3つに分類している。また、多くのリスクに寄与するいくつかの横断的要因についても論じている。 
Malicious use. Like all powerful technologies, general-purpose AI systems can be used maliciously to cause harm. Possible types of malicious use range from relatively well-evidenced ones, such as scams enabled by general-purpose AI, to ones that some experts believe might occur in the coming years, such as malicious use of scientific capabilities of general-purpose AI.  意のある使用。あらゆる強力なテクノロジーと同様、汎用AIシステムも悪意を持って利用され、被害をもたらす可能性がある。悪意のある利用には、汎用AIが可能にする詐欺のような比較的実証済みのものから、汎用AIの科学的能力を悪意を持って利用するような、今後数年のうちに起こりうると考える専門家もいる。 
• Harm to individuals through fake content generated by general-purpose AI is a relatively welldocumented class of general-purpose AI malicious use. General-purpose AI can be used to increase the scale and sophistication of scams and fraud, for example through ‘phishing’ attacks enhanced by general-purpose AI. General-purpose AI can also be used to generate fake compromising content featuring individuals without their consent, such as non-consensual deepfake pornography.  • 汎用AIによって生成された偽コンテンツによる個人への被害は、汎用AIの悪意のある使用の中でも比較的文書化されている分類である。汎用AIは、例えば、汎用AIによって強化された「フィッシング」攻撃によって、詐欺や不正行為の規模を拡大し、巧妙化するために使用することができる。汎用AIはまた、非同意のディープフェイクポルノなど、個人を主人公とする偽の危ういコンテンツを本人の同意なしに生成するために使用されることもある。 
• Another area of concern is the malicious use of general-purpose AI for disinformation and manipulation of public opinion. General-purpose AI and other modern technologies make it easier to generate and disseminate disinformation, including in an effort to affect political processes. Technical countermeasures like watermarking content, although useful, can usually be circumvented by moderately sophisticated actors.  • もうひとつ懸念されるのは、偽情報や世論操作のために汎用AIが悪意を持って利用されることだ。汎用AIやその他の最新テクノロジーは、政治的プロセスに影響を与える試みも含め、偽情報の生成と拡散を容易にする。コンテンツの電子透かしのような技術的な対策は、有用ではあるが、中程度に洗練された行為者であれば、通常は回避することができる。 
• General-purpose AI might also be maliciously used for cyber offence, uplifting the cyber expertise of individuals and making it easier for malicious users to conduct effective cyber-attacks. General-purpose AI systems can be used to scale and partially automate some types of cyber operations, such as social engineering attacks. However, general-purpose AI could also be used in cyber defence. Overall, there is not yet any substantial evidence suggesting that general-purpose AI can automate sophisticated cybersecurity tasks.  • 汎用AIは悪意を持ってサイバー犯罪に利用される可能性もあり、個人のサイバー専門知識を高め、悪意のあるユーザーが効果的なサイバー攻撃を行うことを容易にする。汎用AIシステムは、ソーシャル・エンジニアリング攻撃など、ある種のサイバー操作の規模を拡大し、部分的に自動化するために使用することができる。しかし、汎用AIはサイバー防衛にも利用できる。全体として、汎用AIが高度なサイバーセキュリティタスクを自動化できることを示唆する実質的な証拠はまだない。 
• Some experts have also expressed concern that general-purpose AI could be used to support the development and malicious use of weapons, such as biological weapons. There is no strong evidence that current general-purpose AI systems pose this risk. For example, although current general-purpose AI systems demonstrate growing capabilities related to biology, the limited studies available do not provide clear evidence that current systems can ‘uplift’ malicious actors to obtain biological pathogens more easily than could be done using the internet. However, future large-scale threats have scarcely been assessed and are hard to rule out.  • また、一部の専門家は、汎用AIが生物兵器のような兵器の開発や悪意のある使用を支援するために使用される可能性があると懸念を表明している。現在の汎用AIシステムがこのようなリスクをもたらすという強い証拠はない。例えば、現在の汎用AIシステムは、生物学に関連する能力が高まっていることを示してはいるが、利用可能な限られた研究では、現在のシステムが悪意のある行為者を「高揚」させ、インターネットを利用するよりも簡単に生物学的病原体を入手できるという明確な証拠は得られていない。しかし、将来の大規模な脅威はほとんど評価されておらず、排除することは難しい。 
Risks from malfunctions. Even when users have no intention to cause harm, serious risks can arise due to the malfunctioning of general-purpose AI. Such malfunctions can have several possible causes and consequences:  誤作動によるリスク。利用者に危害を加える意図がない場合でも、汎用AIの誤作動によって深刻なリスクが生じる可能性がある。このような誤作動には、いくつかの原因と結果が考えられる: 
• The functionality of products based on general-purpose AI models and systems might be poorly understood by their users, for example due to miscommunication or misleading advertising. This can cause harm if users then deploy the systems in unsuitable ways or for unsuitable purposes.  • 汎用のAIモデルやシステムに基づく製品の機能は、例えば誤ったコミュニケーションや誤解を招くような宣伝のために、利用者に十分に理解されない可能性がある。そのため、ユーザーが不適切な方法や不適切な目的でシステムを導入すると、弊害が生じる可能性がある。 
• Bias in AI systems generally is a well-evidenced problem and remains unsolved for generalpurpose AI, too. General-purpose AI outputs can be biased with respect to protected characteristics like race, gender, culture, age, and disability. This can create risks, including in highstakes domains such as healthcare, job recruitment, and financial lending. In addition, many widely-used general-purpose AI models are primarily trained on data that disproportionately represents Western cultures, which can increase the potential for harm to individuals not represented well by this data.  • AIシステムにおける一般的なバイアスは、十分に証明された問題であり、汎用AIにおいても未解決のままである。汎用AIの出力は、人種、性別、文化、年齢、障害などの保護特性に関して偏る可能性がある。このことは、医療、求人、金融融資など、利害関係の大きい領域を含め、リスクを生じさせる可能性がある。さらに、広く使用されている汎用AIモデルの多くは、主に西洋文化を不当に代表するデータで訓練されているため、このデータではうまく表現されない個人に危害が及ぶ可能性が高まる。 
• 'Loss of control’ scenarios are potential future scenarios in which society can no longer meaningfully constrain general-purpose AI systems, even if it becomes clear that they are causing harm. There is broad consensus that current general-purpose AI lacks the capabilities to pose this risk. Some experts believe that current efforts to develop general-purpose autonomous AI – systems that can act, plan, and pursue goals – could lead to a loss of control if successful. Experts disagree about how plausible loss-of-control scenarios are, when they might occur, and how difficult it would be to mitigate them.  • 「制御不能」シナリオとは、汎用AIシステムが害を及ぼしていることが明らかになったとしても、社会がもはや意味のある制約を与えることができないような、将来の潜在的シナリオである。現在の汎用AIには、このようなリスクを引き起こす能力が欠けているという点については、幅広いコンセンサスが得られている。一部の専門家は、汎用の自律型AI(行動し、計画を立て、目標を追求できるシステム)を開発する現在の取り組みが成功すれば、制御不能に陥る可能性があると考えている。制御不能のシナリオがどの程度確からしいか、いつ起こりうるか、それを緩和するのがどの程度難しいかについては、専門家の間でも意見が分かれている。 
Systemic risks. The widespread development and adoption of general-purpose AI technology poses several systemic risks, ranging from potential labour market impacts to privacy risks and environmental effects:  システミックリスク。汎用AI技術の広範な開発と採用は、潜在的な労働市場への影響からプライバシーリスクや環境への影響に至るまで、いくつかのシステミック・リスクをもたらす: 
• General-purpose AI, especially if it further advances rapidly, has the potential to automate a very wide range of tasks, which could have a significant effect on the labour market. This could mean many people could lose their current jobs. However, many economists expect that potential job losses could be offset, possibly completely, by the creation of new jobs and by increased demand in non-automated sectors.  • 特に汎用AIが急速に進歩すれば、非常に幅広い作業を自動化できる可能性があり、労働市場に大きな影響を与える可能性がある。これは、多くの人々が現在の仕事を失う可能性があることを意味する。しかし、多くのエコノミストは、潜在的な雇用損失は、新たな雇用の創出や非自動化分野での需要増加によって、場合によっては完全に相殺されると予想している。 
• General-purpose AI research and development is currently concentrated in a few Western countries and China. This 'AI Divide' is multicausal, but in part stems from differing levels of access to the compute needed to develop general-purpose AI. Since low-income countries and academic institutions have less access to compute than high-income countries and technology companies do, they are placed at a disadvantage.  • 汎用AIの研究開発は現在、一部の欧米諸国と中国に集中している。この「AI格差」は多因子にわたっているが、汎用AIの開発に必要な計算機へのアクセスレベルの差に起因する部分もある。低所得国や学術機関は、高所得国やテクノロジー企業に比べて計算機へのアクセスが少ないため、不利な立場に置かれている。 
• The resulting market concentration in general-purpose AI development makes societies more vulnerable to several systemic risks. For instance, the widespread use of a small number of general-purpose AI systems in critical sectors like finance or healthcare could cause simultaneous failures and disruptions on a broad scale across these interdependent sectors, for instance because of bugs or vulnerabilities.  • その結果、汎用AI開発における市場の集中は、社会をいくつかのシステミックリスクに対してより脆弱にする。例えば、金融や医療などの重要な分野で少数の汎用AIシステムが広く使用されることで、バグや脆弱性などが原因で、相互依存関係にあるこれらの分野全体で同時に大規模な障害や混乱が発生する可能性がある。 
• Growing compute use in general-purpose AI development and deployment has rapidly increased energy usage associated with general-purpose AI. This trend shows no indications of moderating, potentially leading to further increased CO2 emissions and water consumption.  • 汎用AIの開発・導入におけるコンピュート利用の拡大により、汎用AIに関連するエネルギー使用量が急速に増加している。この傾向は弱まる気配がなく、CO2 排出量と水消費量のさらなる増加につながる可能性がある。 
• General-purpose AI models or systems can pose risks to privacy. For instance, research has shown that by using adversarial inputs, users can extract training data containing information about individuals from a model. For future models trained on sensitive personal data like health or financial data, this may lead to particularly serious privacy leaks.  • 汎用のAIモデルやシステムは、プライバシーにリスクをもたらす可能性がある。例えば、敵対的な入力を使用することで、ユーザーはモデルから個人に関する情報を含むトレーニングデータを抽出できることが研究で示されている。将来、健康や金融データのようなセンシティブな個人データをトレーニングしたモデルの場合、これは特に深刻なプライバシー漏洩につながる可能性がある。 
• Potential copyright infringements in general-purpose AI development pose a challenge to traditional intellectual property laws, as well as to systems of consent, compensation, and control over data. An unclear copyright regime disincentivises general-purpose AI developers from declaring what data they use and makes it unclear what protections are afforded to creators whose work is used without their consent to train general-purpose AI models.  • 汎用AI開発における潜在的な著作権侵害は、従来の知的財産法だけでなく、同意、補償、データに対する管理体制にも課題を突きつけている。不明確な著作権制度は、汎用AI開発者がどのようなデータを使用しているかを申告する意欲を失わせ、汎用AIモデルを訓練するために同意なしに作品が使用されるクリエイターに対してどのような保護が与えられるかを不明確にしている。 
Cross-cutting risk factors. Underpinning the risks associated with general-purpose AI are several cross-cutting risk factors – characteristics of general-purpose AI that increase the probability or severity of not one but several risks:  横断的リスク要因。汎用AIに関連するリスクの根底には、いくつかの横断的なリスク要因がある。つまり、汎用AIの特性は、1つのリスクだけでなく、複数のリスクの確率や深刻度を高める: 
• Technical cross-cutting risk factors include the difficulty of ensuring that general-purpose AI systems reliably behave as intended, our lack of understanding of their inner workings, and the ongoing development of general-purpose AI ‘agents’ which can act autonomously with reduced oversight.  • 技術的な横断的リスク要因としては、汎用AIシステムが意図したとおりに確実に動作することを保証することの難しさ、AIシステムの内部構造に関する我々の理解不足、監視を減らして自律的に行動できる汎用AI「エージェント」の開発進行中などが挙げられる。 
• Societal cross-cutting risk factors include the potential disparity between the pace of technological progress and the pace of a regulatory response, as well as competitive incentives for AI developers to release products quickly, potentially at the cost of thorough risk management.  • 社会的な横断的リスク要因としては、技術進歩のペースと規制対応のペースの間に潜在的な乖離があることや、AI開発者にとって、徹底したリスク管理を犠牲にしてでも製品を迅速にリリースしようとする競争上のインセンティブがあることなどが挙げられる。 
Several technical approaches can help mitigate risks, but no currently known method provides strong assurances or guarantees against harm associated with general-purpose AI  いくつかの技術的アプローチはリスクを軽減するのに役立つが、現在知られている方法で、汎用AIに関連する危害に対する強力な保証や保証を提供できるものはない。 
While this report does not discuss policy interventions for mitigating risks from general-purpose AI, it does discuss technical risk mitigation methods on which researchers are making progress. Despite this progress, current methods have not reliably prevented even overtly harmful general-purpose AI outputs in real-world contexts. Several technical approaches are used to assess and mitigate risks:  本報告書では、汎用AIによるリスクを軽減するための政策的介入については論じないが、研究者が進歩を遂げている技術的なリスク軽減方法については論じる。このような進展にもかかわらず、現在の手法では、実世界の文脈においてあからさまに有害な汎用AIの出力さえも確実に防ぐことはできていない。リスクの評価と軽減には、いくつかの技術的アプローチが用いられている: 
• There is some progress in training general-purpose AI models to function more safely. Developers also train models to be more robust to inputs that are designed to make them fail (‘adversarial training’). Despite this, adversaries can typically find alternative inputs that reduce the effectiveness of safeguards with low to moderate effort. Limiting a general-purpose AI system’s capabilities to a specific use case can help to reduce risks from unforeseen failures or malicious use.  • 汎用のAIモデルをより安全に機能させるためのトレーニングはある程度進んでいる。開発者はまた、モデルが失敗するように設計された入力に対してより頑健になるように訓練している(「敵対的訓練」)。にもかかわらず、敵は通常、安全装置の有効性を低下させる代替入力を低~中程度の労力で見つけることができる。汎用AIシステムの能力を特定のユースケースに限定することで、予期せぬ失敗や悪意のある使用によるリスクを低減することができる。 
• There are several techniques for identifying risks, inspecting system actions, and evaluating performance once a general-purpose AI system has been deployed. These practices are often referred to as ‘monitoring’.  • 汎用AIシステムが配備された後、リスクを特定し、システムの動作を検査し、パフォーマンスを評価するための手法がいくつかある。これらの手法はしばしば「モニタリング」と呼ばれる。 
• Mitigation of bias in general-purpose AI systems can be addressed throughout the lifecycle of the system, including design, training, deployment, and usage. However, entirely preventing bias in general-purpose AI systems is challenging because it requires systematic training data collection, ongoing evaluation, and effective identification of bias. It may also require trading off fairness with other objectives such as accuracy and privacy, and deciding what is useful knowledge and what is an undesirable bias that should not be reflected in the outputs.  • 汎用AIシステムにおけるバイアスの軽減は、設計、トレーニング、配備、使用など、システムのライフサイクル全体を通じて取り組むことができる。しかし、体系的なトレーニングデータの収集、継続的な評価、バイアスの効果的な特定が必要となるため、汎用AIシステムにおけるバイアスを完全に防止することは困難である。また、精度やプライバシーなど他の目的と公平性をトレードオフし、何が有用な知識で、何が出力に反映されるべきではない望ましくないバイアスなのかを決定する必要がある場合もある。 
• Privacy protection is an active area of research and development. Simply minimising the use of sensitive personal data in training is one approach that can substantially reduce privacy risks. However, when sensitive data is either intentionally or unintentionally used, existing technical tools for reducing privacy risks struggle to scale to large general-purpose AI models, and can fail to provide users with meaningful control.  • プライバシー保護は、研究開発の活発な分野である。訓練におけるセンシティブな個人データの使用を最小限に抑えることは、プライバシーリスクを大幅に低減できるアプローチの1つである。しかし、センシティブなデータが意図的または非意図的に使用される場合、プライバシーリスクを低減するための既存の技術ツールは、大規模な汎用AIモデルへの拡張に苦戦し、ユーザーに意味のある制御を提供できない可能性がある。 
Conclusion: A wide range of general-purpose AI trajectories are possible, and much will depend on how societies and governments act  結論幅広い汎用AIの軌跡が可能であり、その多くは社会や政府がどのように行動するかにかかっている。 
The future of general-purpose AI is uncertain, with a wide range of trajectories appearing possible even in the near future, including both very positive and very negative outcomes. But nothing about the future of general-purpose AI is inevitable. How general-purpose AI gets developed and by whom, which problems it gets designed to solve, whether societies will be able to reap general-purpose AI’s full economic potential, who benefits from it, the types of risks we expose ourselves to, and how much we invest into research to mitigate risks — these and many other questions depend on the choices that societies and governments make today and in the future to shape the development of generalpurpose AI.  汎用AIの未来は不確実であり、非常にポジティブな結果も非常にネガティブな結果も含め、近い将来にも幅広い軌跡があり得ると思われる。しかし、汎用AIの未来に必然性はない。汎用AIが誰によってどのように開発されるのか、どのような問題を解決するために設計されるのか、社会は汎用AIの経済的可能性をフルに享受できるのか、誰がその恩恵を受けるのか、私たちはどのようなリスクにさらされるのか、リスクを軽減するための研究にどれだけ投資するのか--こうした疑問や他の多くの疑問は、汎用AIの開発を形成するために社会や政府が今日および将来行う選択にかかっている。 
To help facilitate constructive discussion about these decisions, this report provides an overview of the current state of scientific research and discussion on managing the risks of general-purpose AI. The stakes are high. We look forward to continuing this effort.  こうした決定に関する建設的な議論を促進するため、本報告書では、汎用AIのリスク管理に関する科学的研究と議論の現状を概観する。リスクは大きい。我々は、この取り組みを継続することを楽しみにしている。 

 

 

 

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2024.05.23 外務省 岸田総理大臣のAIソウル・サミット首脳セッションへの参加(ビデオメッセージ)+ AIソウル・サミット首脳セッション出席国による安全、革新的で包摂的なAIのためのソウル宣言 

・2024.05.23 米国 商務省 NIST AI安全性に関する戦略的ビジョン:AI安全性研究機関の世界的協力計画を発表

・2024.05.21 英国 科学技術革新省 先進AIの安全性に関する国際科学報告書

 

 

| | Comments (0)

より以前の記事一覧