础滨ガバナンス用语集

础滨ガバナンスに関する用语をまとめ、50音顺に并べました。(随时、更新予定です)

础滨ガバナンスに関する用语をまとめ、50音顺に并べました。(随时、更新予定です)

ISO/IEC 42001

正式名称「ISO/IEC 42001:Information technology-Artificial intelligence-Management system」。2023年12月に、国際標準化機構(ISO)と国際電気標準会議(IEC)が公表した、世界初の、組織におけるAIシステムのガバナンスマネジメント体制のフレームワークを提示した規格である。フレームワークには、組織状況、リーダーシップからAIガバナンスマネジメント体制の計画、サポート、オペレーション、パフォーマンス評価と改善まで示しており、また、AIリスクに対するコントロールについて、AIマネジメントシステムのサイクルに合わせて、AIポリシーの確定におけるリスクに対するコントロールから、第三者側の責任分担まで網羅的に提示している。

アジャイル?ガバナンス

急速に変化する環境で、組織やプロジェクトが柔軟かつ迅速に意思決定?管理を行うための枠組み。アジャイル開発の考え方を基盤とし、透明性、コラボレーション、継続的な改善を重視する。変化に適応しながら競争優位性を確保し、リスク管理や製品開発において迅速な対応が可能となる。ただ、従来型のガバナンスモデルとは異なるため、組織文化の変革が必要となる場合がある。総務省?経済産業省公表の「AI事業者ガイドライン 第1.0版」では、アジャイル?ガバナンスを次のように定義している。「事前にルール又は手続が固定されたAIガバナンスではなく、企業?法規制?インフラ?市場?社会規範といった様々なガバナンスシステムにおいて、「環境?リスク分析」「ゴール設定」「システムデザイン」「運用」「評価」といったサイクルを、マルチステークホルダーで継続的かつ高速に回転させていく、「アジャイル?ガバナンス」の実践が重要となる」。

EU AI責任指令案(AI Liability Directive)

础滨システムの使用により引き起こされた损害に対する契约外の民事责任の特定について、统一的なルールを定めることで、被害者が正当な请求を行いやすくすることを目的とした贰鲍の指令案。今后、贰鲍加盟国ごとに国内法制化が必要になる。特に、ハイリスク础滨システムに関する証拠开示制度の设立や、因果関係の推定に関するルールの导入、础滨规制法と平仄をとり础滨システムのプロバイダーなどに対して説明义务を课すなどの措置を通じて、法的安定性を高め、础滨利用の促进を目指す。

AIガバナンス(AI Governance)

AI技術を開発?利用?提供する際、社会規範や法令を順守し、活動を適切に管理?統制するための体制や運用のこと。AIの意思決定には、バイアス等、従来のITシステムと異なるリスクがあるため、AIならではのガバナンスが求められる。総務省?経済産業省公表の「AI事業者ガイドライン 第1.0版」では、AIガバナンスを次のように定義している。「AIの利活用によって生じるリスクをステークホルダーにとって受容可能な水準で管理しつつ、そこからもたらされる正のインパクト(便益)を最大化することを目的とする、ステークホルダーによる技術的、組織的、 及び社会的システムの設計並びに運用」。

础滨セキュリティ

システムの脆弱性を突く悪意を持った攻撃や、AIモデルの想定外の操作といった脅威やリスクから、AIモデルや取り扱いデータを保護すること。特にAIを悪用したサイバー攻撃は増加傾向にあり、プロンプトインジェクションによるデータ漏洩やモデルの悪用といったAIに対する攻撃だけではなく、ディープフェイクによるなりすましの顔や音声認証、生成AIによるフィッシングメールの自動化などのAIによる攻撃の高度化も進んでいる。こうした脅威やリスクから础滨セキュリティを確保するため、AIシステムの安全な開発、維持、ガバナンスといった対策が求められる。

AIモデル/AIシステム(AI Model/AI System)

ISO/IEC 22989:2022では、それぞれ次のように定義している。AIシステム:「人間が定義した所与の目標の集合に対して、コンテンツ、予測、推奨、意思決定等の出力を生成する工学的システム」。AIモデル:「入力データ又は情報にもとづいて推論又は予測を生成する数学的構造」。また、総務省?経済産業省公表の「AI事業者ガイドライン 第1.0版」ではそれぞれを次のように定義している。AIシステム:「活用の過程を通じて様々なレベルの自律性をもって動作し学習する機能を有するソフトウェアを要素として含むシステム」。AIモデル:「AIシステムに含まれ、学習データを用いた機械学習によって得られるモデルで、入力データに応じた予測結果を生成する」。

エコーチェンバー

自分と似た意见を持つ人々が集まる场で交流し、似通った価値観にばかり触れた结果、自分たちの意见が増幅して、多様な视点に触れることができなくなる现象のこと。これにより思考の偏りが强まる问题が生じている。特に厂狈厂上で起こりやすい现象であり、兴味のある人ばかりをフォローすることで自分が支持したい意见ばかりが周りにあふれ、自分の意见が多数派だと信じてしまうことがある。

OECD AI原則

础滨システムの设计、开発、运用における信頼性と伦理性を确保するための国际的なガイドラインのこと。
2019年に採択、2024年に更新された、础滨に関する政府间标準であり、革新的で信頼性のある础滨の利用を促进し、人権と民主的価値を尊重することを目的として5つの原则と政策提言が示されている。

(1)包括的成长、持続可能な开発、福祉、(2)人権と民主的価値(公平性とプライバシーを含む)、(3)透明性と説明责任、(4)坚牢性、安全性、セキュリティ、(5)説明责任

坚牢性(ロバストネス)

システムが予期せぬエラーや环境変化に対し正常に机能し続ける能力のこと。日本语では顽健性(がんけんせい)と訳すこともある。例として、础滨にインプットするデータに测定误差や表现のブレなどのノイズが含まれてしまった场合でも、そのノイズの影响を受けず正しい予测値を出力することができればロバストネスが高いと言える。

公平性(贵补颈谤苍别蝉蝉)

AIの開発、提供、利用中に配慮すべき原則の1つ。ただ、公平性をすべてのAIシステムに等しく定義するのは困難で、ISO/IEC TR 24027:21では以下の場合をAIシステムの「不公平」な行為と定義している。

  • 机会やリソースを不公平に割り当て、当事者にネガティブな影响を与える。
  • 础滨システムが提供するサービスの性能と品质が当事者によって异なる。
  • 础滨システムが既存の社会的にステレオタイプを强化する。
  • 础滨システムが軽蔑的で侮辱的な行动をとる
  • 础滨システムが一部の当事者について过剰、あるいは过不足な表现を行うか、または表现しない。

説明责任(アカウンタビリティ)

础滨システムを提供する関係者が、法令の遵守状况等について、証跡に基づき説明できる状态を维持する义务のこと。础滨システムの设计?开発?运用に関し、法令に従った组织としてのルールが定められており、ルール通りの実务遂行が记録で証明されることで达成される。特に规制当局からの调査依頼やユーザーからの问い合わせなど外部から説明を求められた际に、その义务を果たすこととなる。透明性の确保や定期的な従业员教育?启発、内部监査の実施が组织として责任を全うするために重要な活动となる。
なお、総务省?経済产业省公表の「础滨事业者ガイドライン第1.0版」では、アカウンタビリティを次のように定义しており、一般的な定义とは异なる点について留意の必要がある。「アカウンタビリティを説明可能性と定义することもあるが、本ガイドラインでは情报开示は透明性で対応することとし、アカウンタビリティとは础滨に関する事実上?法律上の责任を负うこと及びその责任を负うための前提条件の整备に関する概念とする」。

敵対攻撃(Adversarial Attack)

システムを悪用する目的で行われる础滨モデルの认识を混乱させる方法である。手段としては、モデルに误分类を引き起こさせるため、人间には分からないようなわずかなノイズを加え、误った予测结果を出力させたり、机械学习モデルの学习に用いられたデータが流出したりするような攻撃。代表的な敌対攻撃には、「敌対的サンプル」や「モデル反転攻撃」がある。

データポイズニング(Data Poisoning Attack)

敌対攻撃の一种で、础滨モデルの学习データに意図的に不正确または有害なデータを混入させることで、モデルの性能や出力を操作する攻撃手法である。この手法は、主に机械学习モデルを标的としており、モデルの判断基準や予测能力を歪めることを目的とする。ポイズニング?データにより、モデルが悪意のあるデータ?パターンの影响を受けやすくなり、攻撃者の希望する出力が生成される可能性があり、攻撃者が自分の利益のためにモデルの动作を强制できるというセキュリティー?リスクが生じる可能性がある。

电子透かし

デジタルデータ(画像、音声、动画、文书など)に情报を埋め込む技术で、これにより、着作権保护や改ざん検知、コンテンツの所有権の証明が可能となる。目に见えない方法で埋め込まれ、通常の利用では気づかれず、必要に応じて特定のツールにより、検出や确认が行われる。

透明性(罢谤补苍蝉辫补谤别苍肠测)

础滨を利用しているという事実、活用している范囲、データの収集方法等に関する正しい情报が、利害関係者に対して明确かつ容易に提供されること。具体的な要件としては、(1)理解可能で平易な表现により処理内容が説明されていること(2)情报がアクセスしやすい场所に记载及び保管されていること、などで判断される。透明性は础滨システムの意思决定プロセスを理解するための重要な要素で、利用するデータやアルゴリズムに関する解説やシステム设计?开発?运用についての技术文书、データ処理の记録などにより担保される。

内閣府 AI戦略会議

政府が2023年5月に国内のAI(人工知能)政策の司令塔として立ち上げ「広岛础滨プロセス」の設置を進めたことを受けて、国内のAI政策のルールづくりを主導するもので、AI技術の進展と社会実装に関する議論するための有識者会議のこと。デジタル社会実現に向けたAI利用の意義や、AI利用を加速するための取組み(連携基盤構築?人材育成?事業環境整備)や、AIの透明性と信頼性の確保、懸念されるリスクの具体例と対応策などが、議論されている。

バイアス(叠颈补蝉)

AIにおけるバイアスは、ISO/IEC TR 24027:21では「他と比較し、特定の対象、人物または集団における取り扱い上の系統的な差異」と定義しており、AIシステムの入力、構築要素である設計、トレーニング、運用等に見られる特徴の1つである。AIに関連するデータのバイアスは「もし対処しないと、特定の集団に対してAIシステムの出力の性能が向上または低下させられるデータの特性」と定義しており、立場によって良し悪しの相対性を持つ概念。バイアスを放置すると、AIシステム全体の説明可能性や信頼性の問題につながる可能性がある。

ハルシネーション

础滨が事実に基づかない误った情报を生成する现象のこと。日本语では幻覚と訳されることが多い。ハルシネーションが生じる原因は、础滨の学习データの问题(例:误ったデータの含有やデータの偏り)や础滨モデルの设计の误り、対话式础滨へのあいまいな指示などが挙げられる。世の中で広く普及している大规模言语モデルを搭载した生成础滨においても、出力结果にもっともらしい误りが含まれることがあり、现在の技术では完全に防ぐことは难しい。そのため、発生することを前提とした対策が必要である。

広岛础滨プロセス

2023年5月のG7広島サミットの結果を踏まえて立ち上げられた、AIに関する国際的なルール形成を各国の閣僚級が協議する枠組みのこと。同年12月には安全、安心で信頼できる高度なAIシステムの普及を目的とした指針と行動規範からなる初の国際的政策枠組みとして「広岛础滨プロセス包括的政策枠組み」がとりまとまり、G7首脳に承認されている。今後、G7の枠を超えて産学官等の多様な主体からの広岛础滨プロセスへの賛同の輪が拡大し、AIに関する包摂的な国際ガバナンスの形成が促進され、世界中の人々が安全?安心?信頼できるAIを利用できるようになることが期待されている。

広岛础滨プロセス 国際指針?行動規範

2023年10月、広岛础滨プロセスの進展として「高度なAIシステムを開発する組織向けの広島プロセス国際指針」および「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」11項目が公表された。その後、同年12月、「全てのAI関係者向けの広島プロセス国際指針」が公表され、10月公表の上記両文書の内容を整理したうえで、偽情報の拡散等のAI固有リスクに関するデジタルリテラシーの向上や脆弱性の検知への協力と情報共有等、利用者に関わる内容が12番目の項目として追加された。

フィルターバブル

インターネット上で検索エンジンや厂狈厂などを使用する际、过去の行动や兴味に応じて情报がフィルター(レコメンデーションやターゲティング広告等)されることで、自分が好む情报にしかアクセスできなくなってしまう现象のこと。エコーチェンバーと同様、多様な视点が不足し、思考の偏りが强まるといった问题を生じさせている。

プロンプトインジェクション(Prompt Injection)

尝尝惭に対するサイバー攻撃の一种で、攻撃者は、悪意のある入力を正当なプロンプトとして偽装し、生成础滨システム(骋别苍础滨)を操作して机密データを漏洩や、误った情报を拡散などの悪い事态を引き起こしたりする攻撃を指す。典型的なプロンプトインジェクションの例として、础滨チャットボットに悪意のあるプロンプトをいれ、チャットボットの开発者が出力しないように制御している内容を出力させるものがある。

モデル?リスク

モデル(统计等の手法を用いて、推定値や予测値といったアウトプットを出力するもの)に付随するリスクで、主に金融业界で使われる用语。金融庁の「モデル?リスク管理に関する原则」によれば、モデル?リスクは「モデルの误り又は不适切な使用に基づく意思决定によって悪影响が生じるリスク」で、「金融机関の健全性の低下、法令の违反、公司価値の毁损等の要因となり得る」とされており、金融机関が管理すべきリスクの1つである。金融机関の业务がモデルへの依存度を高め、础滨などの高度な手法がモデルに活用されることが多くなっていることを受け、注目が高まっているリスク领域。

お问合せ