執筆:張 烽 現在、人工知能は前例のない深さで社会の生産と生活に統合されつつあり、その安全とガバナンスの体系はデジタル時代の礎を成しています。しかし、物理の原理に由来する計算能力革命――量子計算――が、ひそかに迫っています。その潜在的な破壊力によって、既存の安全防衛線やガバナンス枠組みは厳しい問いにさらされています。量子計算は、既存のAIの安全とガバナンス体系を覆すのでしょうか?これは単なる技術課題ではなく、将来のデジタル社会の秩序に関わる全体的な挑戦です。計算能力の飛躍がルールの遅れに遭遇する中で、私たちは「Q-Day」に備えるにはどうすべきでしょうか? 一、量子計算はどのように、現在広く用いられている非対称暗号アルゴリズムを脅かすのか? 現在のAIシステムの安全は、モデルの転送、データの保存、身元認証に至るまで、高度にRSA、ECC(楕円曲線暗号)に代表される非対称暗号アルゴリズムに依存しています。これらのアルゴリズムの安全性は、「大数の素因数分解」や「離散対数」などの数学的難題の「計算複雑性」に基づいており、古典計算機では受け入れ可能な時間内にこれらの問題を解けません。 しかし、量子計算は根本的なパラダイム転換をもたらします。Shorアルゴリズムに代表される量子アルゴリズムは、理論上、これらの難題の解決時間を指数級から多項式級へと引き下げられます。ある論文の評により、Regevアルゴリズムおよびその拡張を含む最新の量子アルゴリズムが、非対称暗号の解読効率を継続的に最適化していると指摘されています。これは、十分な規模(通常は数百万の安定した量子ビットを保有することを指します)の汎用量子計算機が登場すれば、インターネット通信、デジタル署名、暗号化データを「錠前」で守っている現在の仕組みが、瞬時に開錠される可能性があることを意味します。 この脅威は、決して遠い将来の話ではありません。智源コミュニティの研究は、この脅威は「現在進行形」であると警告しています。つまり、攻撃者は今すぐに暗号化された通信データ(AIの学習データ、モデルのパラメータなどを含む)を傍受して保存し、将来量子計算機が成熟した後に解読することができます。この「先に傍受し、後で解読する」戦略により、国家機密、商業特許、個人のプライバシーデータなど、長期にわたり秘密保持が必要なすべての高価値情報が、将来のリスクにさらされることになります。したがって、量子計算による非対称暗号への脅威は、基礎的かつ体系的であり、直接的に、現在のAI、ひいてはデジタル世界全体の安全体系の土台を揺るがします。 二、量子計算に直面し、AIモデルの学習とデータ・プライバシー保護はどのような新たな課題に直面するのか? AIの発展は、大量のデータを投入し、複雑なモデルを学習することに依存していますが、このプロセス自体がプライバシーと安全に関する課題を多く含んでいます。量子計算の介入により、これらの課題はさらに鋭く、かつ複雑になります。 まず、データ・ライフサイクルにおける長期秘匿性が失われます。先述のとおり、クラウド上または転送中に暗号化して保存されているAI学習データセットは、将来の量子解読によって完全に露呈する可能性があります。西交利物浦大学の「世界的な量子対策移行戦略」ホワイトペーパーは、グローバルな対抗者が組織的にこの種の「データ収奪」戦略を実行し、「Q-Day」(量子計算機の実用化の日)の到来を忍耐強く待っていると、明確に指摘しています。これは、医療記録、金融情報、生体特徴などの機微データに基づいて学習するAIモデルにとって、源流からの脅威となります。 次に、連邦学習などのプライバシー計算技術が新たな試練に直面します。連邦学習は、ローカルでモデルを学習し、原始データは扱わず、モデルのパラメータ更新のみをやり取りすることで、元データの保護を行います。しかし、これらのやり取りにおける勾配やパラメータ更新情報そのものも暗号化された転送を通じて行われます。ところが、基盤となる暗号が量子計算によって破られれば、攻撃者は逆算して参加者の原始データの特徴を推定でき、プライバシー保護メカニズムが実質的に無力化されることになります。 最後に、モデルの窃取と知的財産権保護の難度が急激に高まります。学習が成熟したAIモデルは、企業の中核資産です。現在、モデルの重みとアーキテクチャは通常、暗号化された方式で配布・展開されています。量子計算はこれらの保護措置を無効化し得て、モデルが容易に複製され、リバースエンジニアリングされたり、改ざんされたりすることで、深刻な知的財産権侵害や安全上の脆弱性を引き起こす可能性があります。中国情報通信研究院は『人工知能ガバナンス・ブルー・ブック』の中で、人工知能のガバナンスは技術の濫用やデータ安全などのリスクに対応する必要があり、量子計算はこれらのリスクの破壊力を間違いなく増幅させると強調しています。 三、量子機械学習の発展は、AIの安全と倫理審査の枠組みにどのような影響を与えるのか? 量子計算とAIの結合――量子機械学習(QML)――は、新たな効能の飛躍を予兆しています。しかし同時に、それは前例のない安全と倫理の新問題ももたらし、既存の審査枠組みに衝撃を与えます。 安全面では、QMLはより強力な攻撃ツールを生み出す可能性があります。たとえば、量子アルゴリズムは敵対的サンプルの生成を大幅に加速し、より隠蔽的で破壊力の強い攻撃を作り出して、現在のところ古典計算に基づくAIの安全防御体系(敵対的学習、異常検知など)を急速に時代遅れにするかもしれません。ある分析では「量子+AI」をネットワークセキュリティの次の生死を分ける戦場と呼び、関連する規制枠組みを前倒しで整備する必要があると指摘しています。 倫理面では、QMLの「ブラックボックス」特性は、古典AIよりもさらに深遠になり得ます。その意思決定過程は量子重ね合わせともつれ状態に基づくため、より説明しにくく、監査しにくく、責任追及もしにくい可能性があります。QMLがもたらすアルゴリズムの公正性、責任の所在の定義、技術の制御可能性などの倫理的な論争とリスクは、すでに多くの検討がなされています。既存のAI倫理指針(透明性、公正性、説明責任可能性など)を、量子のスケールでどのように実装するのでしょうか?規制当局は、量子回路に基づき、複数の状態の重ね合わせにある可能性がある意思決定モデルを、どのように審査するのでしょうか?これらはすべて、既存の倫理審査枠組みがまだ十分に準備できていない難題です。ガバナンスのモデルは、単なる技術的なコンプライアンスから、量子特性の本質とそれが社会に与える影響をより深く理解する方向へ転換する必要があります。 四、既存のAIガバナンス規制(GDPRなど)は、量子計算がもたらす安全面の変化に対応できるのか? EUの『一般データ保護規則』(GDPR)に代表される現行のAIおよびデータガバナンス規制は、「設計段階での保護とデフォルトでの保護」、「データ最小化」、「保存制限」、「完全性と機密性」などの中核原則が、理念のレベルでは依然として指針としての価値があります。しかし、具体的な技術実装とコンプライアンス要件において、それらは量子計算によって生じる「コンプライアンス上のギャップ」に直面しています。 GDPRは、データ管理者に対し、データの安全を確保するための適切な技術的および組織的措置を講じることを求めています。しかし、量子脅威の背景下で、何が「適切な」暗号化措置なのでしょうか?量子的に安全でないことが証明されているアルゴリズムを使い続けることは、将来において安全保障義務を履行できなかったと認定される可能性が高いです。規制におけるデータ漏えい通知の期限要件は、量子計算を利用して行われ、瞬時に完了し痕跡を残さない可能性のある高度な攻撃に直面した場合、どのように効果的に実行できるのでしょうか? 世界的に、立法者は変革の必要性をすでに認識しています。『2025年度グローバルAIガバナンス報告』は、各国が専用のAIガバナンス法を加速して策定しており、高位の統括機関を設置していることを示しています。中国は『デジタル中国発展報告(2024年)』の中で「データ基盤制度の整備を加速し」、「『人工知能+』」の取り組みを継続的に推進することを強調しています。これらの動きは、ガバナンス体系が積極的に調整されていることを示しています。しかし、「量子計算+AI」という交差領域に特化した規制は、現時点でほぼ空白に近いのが実情です。既存の規制は、ポスト量子暗号への移行に関するタイムテーブル、QMLモデルの監査基準、量子時代のデータ安全レベル分類などの具体的問題に対する規定が欠けており、迫りくる安全面の変化に対して効果的に対応するのが難しいのです。 五、AIシステムにおけるポスト量子暗号の応用見通しと実装上の難点は何か? 量子脅威への最も直接的な技術的解決策は、ポスト量子暗号(PQC)です。PQCとは、量子計算機による攻撃に耐えられる暗号アルゴリズムを指し、量子原理に基づくものではなく、新たに提案され、量子計算機でも迅速には解きにくいと考えられている数学的難題(格、コーディング、多変数など)に基づいています。 AIシステムでの応用見通しは広く、かつ差し迫っています。PQCはAIワークフローのあらゆる段階を守るのに使えます。PQCアルゴリズムで学習データとモデルファイルを暗号化すること。PQCデジタル署名で、モデルの出所の完全性と真正性を検証すること。分散型AI計算ノード間でPQCの安全な通信チャネルを確立することです。Fortinetは、PQCは遠い概念ではなく、潜在的な量子脅威からデジタルシステムを守るための切実で実用的な解決策だと指摘しています。 しかし、PQCを全面的に実装するには、顕著な難点があります: 性能と互換性の課題:多くのPQCアルゴリズムは、鍵サイズ、署名長、計算コストの面で既存アルゴリズムより大幅に大きい可能性があります。そのため、計算効率や遅延に敏感なAIの学習・推論プロセスに統合すると、性能のボトルネックが生じ得ます。同時に、互換性を確保するために、関連するすべてのハードウェア、ソフトウェア、プロトコルスタックをアップグレードする必要があります。 標準化と移行の複雑性:米国NISTなどの機関がPQCの標準化プロセスを推進していますが、最終的な標準の確定と、世界規模での統一にはなお時間がかかります。北京市密管局が発表した『商密前線動態』では、業界が威胁への対応を後押しするために、NIST候補アルゴリズムのオープンソース実装を積極的に進めていることが示されています。移行全体のプロセスは、リスク評価、アルゴリズム選定、ハイブリッド展開、テスト、全面的な入れ替えなどを含む、大規模で複雑なシステムエンジニアリングです。特に、構造が複雑なAIエコシステムではなおさらです。 新たな安全リスク:PQCアルゴリズム自体が比較的新しい研究領域であり、その長期的な安全性はRSAのように数十年にわたる実戦的な暗号解析の試験をまだ経ていません。AIシステムに未知の脆弱性を持ち得るPQCを急いで導入すること自体も、リスクとなり得ます。 六、この変革に直面して、受け身で「Q-Day」を待つのは危険だ 量子計算が既存のAI安全とガバナンス体系にもたらす破壊的な影響は、現実のものであり、かつ迫っています。それは既存の体系を完全に覆すものではありません。暗号学的基盤を崩し、データリスクを増幅し、倫理上の問題を複雑化し、規制の遅れを際立たせることで、体系全体に対し、深く、前向きなアップグレードを避けられない状況を作り出しています。 この変革に直面し、受け身で「Q-Day」を待つのは危険です。私たちは、以下の実行可能な行動ルートを提案します: 量子安全リスク評価とリスト作成の開始:今すぐに中核となるAI資産(とりわけ長期にわたり機微データに関わるモデルとデータ)に対して量子脅威の評価を行い、最も脆弱な箇所を特定し、移行の優先順位リストを作成します。 PQC移行ロードマップの策定と実施:NISTなどの標準化機関の進展に注目し、AIシステムの開発・運用においてPQC統合の計画を開始します。新設システムおよび重要システムに優先して「暗号の機敏性(暗号の入れ替え容易性)」を前提とする設計を採用し、将来、暗号アルゴリズムをシームレスに置換できるようにします。過渡期として、現在採用している「クラシック+PQC」のハイブリッド暗号方式を検討することもできます。 ガバナンス枠組みの適応的アップデートの推進:業界団体、標準化機関、規制当局が協働し、量子耐性の要件をAIの安全標準、データ保護規制、および製品認証体系に組み込み、研究していくべきです。QMLの倫理審査に先立って、研究の枠組みとガイドラインを事前に整備します。 分野横断的な人材育成と研究の強化:AIだけでなく、量子計算と暗号学も理解できる複合型人材を育成し、AI安全研究に量子脅威モデルを組み込むことを後押しし、量子耐性のあるAI安全技術の研究開発を資金面で支援します。 量子計算がもたらす課題は巨大ですが、同時に、デジタル世界の基盤を見直し、強化するための機会も提供してくれます。事前の計画、協調的なイノベーション、機敏なガバナンスによって、私たちは、量子計算の恩恵を受け入れつつ、その安全リスクにも耐えられる、より強靭なAIの未来を構築できる可能性があります。
AI合规資産、量子が「再評価」しています
執筆:張 烽
現在、人工知能は前例のない深さで社会の生産と生活に統合されつつあり、その安全とガバナンスの体系はデジタル時代の礎を成しています。しかし、物理の原理に由来する計算能力革命――量子計算――が、ひそかに迫っています。その潜在的な破壊力によって、既存の安全防衛線やガバナンス枠組みは厳しい問いにさらされています。量子計算は、既存のAIの安全とガバナンス体系を覆すのでしょうか?これは単なる技術課題ではなく、将来のデジタル社会の秩序に関わる全体的な挑戦です。計算能力の飛躍がルールの遅れに遭遇する中で、私たちは「Q-Day」に備えるにはどうすべきでしょうか?
一、量子計算はどのように、現在広く用いられている非対称暗号アルゴリズムを脅かすのか?
現在のAIシステムの安全は、モデルの転送、データの保存、身元認証に至るまで、高度にRSA、ECC(楕円曲線暗号)に代表される非対称暗号アルゴリズムに依存しています。これらのアルゴリズムの安全性は、「大数の素因数分解」や「離散対数」などの数学的難題の「計算複雑性」に基づいており、古典計算機では受け入れ可能な時間内にこれらの問題を解けません。
しかし、量子計算は根本的なパラダイム転換をもたらします。Shorアルゴリズムに代表される量子アルゴリズムは、理論上、これらの難題の解決時間を指数級から多項式級へと引き下げられます。ある論文の評により、Regevアルゴリズムおよびその拡張を含む最新の量子アルゴリズムが、非対称暗号の解読効率を継続的に最適化していると指摘されています。これは、十分な規模(通常は数百万の安定した量子ビットを保有することを指します)の汎用量子計算機が登場すれば、インターネット通信、デジタル署名、暗号化データを「錠前」で守っている現在の仕組みが、瞬時に開錠される可能性があることを意味します。
この脅威は、決して遠い将来の話ではありません。智源コミュニティの研究は、この脅威は「現在進行形」であると警告しています。つまり、攻撃者は今すぐに暗号化された通信データ(AIの学習データ、モデルのパラメータなどを含む)を傍受して保存し、将来量子計算機が成熟した後に解読することができます。この「先に傍受し、後で解読する」戦略により、国家機密、商業特許、個人のプライバシーデータなど、長期にわたり秘密保持が必要なすべての高価値情報が、将来のリスクにさらされることになります。したがって、量子計算による非対称暗号への脅威は、基礎的かつ体系的であり、直接的に、現在のAI、ひいてはデジタル世界全体の安全体系の土台を揺るがします。
二、量子計算に直面し、AIモデルの学習とデータ・プライバシー保護はどのような新たな課題に直面するのか?
AIの発展は、大量のデータを投入し、複雑なモデルを学習することに依存していますが、このプロセス自体がプライバシーと安全に関する課題を多く含んでいます。量子計算の介入により、これらの課題はさらに鋭く、かつ複雑になります。
まず、データ・ライフサイクルにおける長期秘匿性が失われます。先述のとおり、クラウド上または転送中に暗号化して保存されているAI学習データセットは、将来の量子解読によって完全に露呈する可能性があります。西交利物浦大学の「世界的な量子対策移行戦略」ホワイトペーパーは、グローバルな対抗者が組織的にこの種の「データ収奪」戦略を実行し、「Q-Day」(量子計算機の実用化の日)の到来を忍耐強く待っていると、明確に指摘しています。これは、医療記録、金融情報、生体特徴などの機微データに基づいて学習するAIモデルにとって、源流からの脅威となります。
次に、連邦学習などのプライバシー計算技術が新たな試練に直面します。連邦学習は、ローカルでモデルを学習し、原始データは扱わず、モデルのパラメータ更新のみをやり取りすることで、元データの保護を行います。しかし、これらのやり取りにおける勾配やパラメータ更新情報そのものも暗号化された転送を通じて行われます。ところが、基盤となる暗号が量子計算によって破られれば、攻撃者は逆算して参加者の原始データの特徴を推定でき、プライバシー保護メカニズムが実質的に無力化されることになります。
最後に、モデルの窃取と知的財産権保護の難度が急激に高まります。学習が成熟したAIモデルは、企業の中核資産です。現在、モデルの重みとアーキテクチャは通常、暗号化された方式で配布・展開されています。量子計算はこれらの保護措置を無効化し得て、モデルが容易に複製され、リバースエンジニアリングされたり、改ざんされたりすることで、深刻な知的財産権侵害や安全上の脆弱性を引き起こす可能性があります。中国情報通信研究院は『人工知能ガバナンス・ブルー・ブック』の中で、人工知能のガバナンスは技術の濫用やデータ安全などのリスクに対応する必要があり、量子計算はこれらのリスクの破壊力を間違いなく増幅させると強調しています。
三、量子機械学習の発展は、AIの安全と倫理審査の枠組みにどのような影響を与えるのか?
量子計算とAIの結合――量子機械学習(QML)――は、新たな効能の飛躍を予兆しています。しかし同時に、それは前例のない安全と倫理の新問題ももたらし、既存の審査枠組みに衝撃を与えます。
安全面では、QMLはより強力な攻撃ツールを生み出す可能性があります。たとえば、量子アルゴリズムは敵対的サンプルの生成を大幅に加速し、より隠蔽的で破壊力の強い攻撃を作り出して、現在のところ古典計算に基づくAIの安全防御体系(敵対的学習、異常検知など)を急速に時代遅れにするかもしれません。ある分析では「量子+AI」をネットワークセキュリティの次の生死を分ける戦場と呼び、関連する規制枠組みを前倒しで整備する必要があると指摘しています。
倫理面では、QMLの「ブラックボックス」特性は、古典AIよりもさらに深遠になり得ます。その意思決定過程は量子重ね合わせともつれ状態に基づくため、より説明しにくく、監査しにくく、責任追及もしにくい可能性があります。QMLがもたらすアルゴリズムの公正性、責任の所在の定義、技術の制御可能性などの倫理的な論争とリスクは、すでに多くの検討がなされています。既存のAI倫理指針(透明性、公正性、説明責任可能性など)を、量子のスケールでどのように実装するのでしょうか?規制当局は、量子回路に基づき、複数の状態の重ね合わせにある可能性がある意思決定モデルを、どのように審査するのでしょうか?これらはすべて、既存の倫理審査枠組みがまだ十分に準備できていない難題です。ガバナンスのモデルは、単なる技術的なコンプライアンスから、量子特性の本質とそれが社会に与える影響をより深く理解する方向へ転換する必要があります。
四、既存のAIガバナンス規制(GDPRなど)は、量子計算がもたらす安全面の変化に対応できるのか?
EUの『一般データ保護規則』(GDPR)に代表される現行のAIおよびデータガバナンス規制は、「設計段階での保護とデフォルトでの保護」、「データ最小化」、「保存制限」、「完全性と機密性」などの中核原則が、理念のレベルでは依然として指針としての価値があります。しかし、具体的な技術実装とコンプライアンス要件において、それらは量子計算によって生じる「コンプライアンス上のギャップ」に直面しています。
GDPRは、データ管理者に対し、データの安全を確保するための適切な技術的および組織的措置を講じることを求めています。しかし、量子脅威の背景下で、何が「適切な」暗号化措置なのでしょうか?量子的に安全でないことが証明されているアルゴリズムを使い続けることは、将来において安全保障義務を履行できなかったと認定される可能性が高いです。規制におけるデータ漏えい通知の期限要件は、量子計算を利用して行われ、瞬時に完了し痕跡を残さない可能性のある高度な攻撃に直面した場合、どのように効果的に実行できるのでしょうか?
世界的に、立法者は変革の必要性をすでに認識しています。『2025年度グローバルAIガバナンス報告』は、各国が専用のAIガバナンス法を加速して策定しており、高位の統括機関を設置していることを示しています。中国は『デジタル中国発展報告(2024年)』の中で「データ基盤制度の整備を加速し」、「『人工知能+』」の取り組みを継続的に推進することを強調しています。これらの動きは、ガバナンス体系が積極的に調整されていることを示しています。しかし、「量子計算+AI」という交差領域に特化した規制は、現時点でほぼ空白に近いのが実情です。既存の規制は、ポスト量子暗号への移行に関するタイムテーブル、QMLモデルの監査基準、量子時代のデータ安全レベル分類などの具体的問題に対する規定が欠けており、迫りくる安全面の変化に対して効果的に対応するのが難しいのです。
五、AIシステムにおけるポスト量子暗号の応用見通しと実装上の難点は何か?
量子脅威への最も直接的な技術的解決策は、ポスト量子暗号(PQC)です。PQCとは、量子計算機による攻撃に耐えられる暗号アルゴリズムを指し、量子原理に基づくものではなく、新たに提案され、量子計算機でも迅速には解きにくいと考えられている数学的難題(格、コーディング、多変数など)に基づいています。
AIシステムでの応用見通しは広く、かつ差し迫っています。PQCはAIワークフローのあらゆる段階を守るのに使えます。PQCアルゴリズムで学習データとモデルファイルを暗号化すること。PQCデジタル署名で、モデルの出所の完全性と真正性を検証すること。分散型AI計算ノード間でPQCの安全な通信チャネルを確立することです。Fortinetは、PQCは遠い概念ではなく、潜在的な量子脅威からデジタルシステムを守るための切実で実用的な解決策だと指摘しています。
しかし、PQCを全面的に実装するには、顕著な難点があります:
性能と互換性の課題:多くのPQCアルゴリズムは、鍵サイズ、署名長、計算コストの面で既存アルゴリズムより大幅に大きい可能性があります。そのため、計算効率や遅延に敏感なAIの学習・推論プロセスに統合すると、性能のボトルネックが生じ得ます。同時に、互換性を確保するために、関連するすべてのハードウェア、ソフトウェア、プロトコルスタックをアップグレードする必要があります。
標準化と移行の複雑性:米国NISTなどの機関がPQCの標準化プロセスを推進していますが、最終的な標準の確定と、世界規模での統一にはなお時間がかかります。北京市密管局が発表した『商密前線動態』では、業界が威胁への対応を後押しするために、NIST候補アルゴリズムのオープンソース実装を積極的に進めていることが示されています。移行全体のプロセスは、リスク評価、アルゴリズム選定、ハイブリッド展開、テスト、全面的な入れ替えなどを含む、大規模で複雑なシステムエンジニアリングです。特に、構造が複雑なAIエコシステムではなおさらです。
新たな安全リスク:PQCアルゴリズム自体が比較的新しい研究領域であり、その長期的な安全性はRSAのように数十年にわたる実戦的な暗号解析の試験をまだ経ていません。AIシステムに未知の脆弱性を持ち得るPQCを急いで導入すること自体も、リスクとなり得ます。
六、この変革に直面して、受け身で「Q-Day」を待つのは危険だ
量子計算が既存のAI安全とガバナンス体系にもたらす破壊的な影響は、現実のものであり、かつ迫っています。それは既存の体系を完全に覆すものではありません。暗号学的基盤を崩し、データリスクを増幅し、倫理上の問題を複雑化し、規制の遅れを際立たせることで、体系全体に対し、深く、前向きなアップグレードを避けられない状況を作り出しています。
この変革に直面し、受け身で「Q-Day」を待つのは危険です。私たちは、以下の実行可能な行動ルートを提案します:
量子安全リスク評価とリスト作成の開始:今すぐに中核となるAI資産(とりわけ長期にわたり機微データに関わるモデルとデータ)に対して量子脅威の評価を行い、最も脆弱な箇所を特定し、移行の優先順位リストを作成します。
PQC移行ロードマップの策定と実施:NISTなどの標準化機関の進展に注目し、AIシステムの開発・運用においてPQC統合の計画を開始します。新設システムおよび重要システムに優先して「暗号の機敏性(暗号の入れ替え容易性)」を前提とする設計を採用し、将来、暗号アルゴリズムをシームレスに置換できるようにします。過渡期として、現在採用している「クラシック+PQC」のハイブリッド暗号方式を検討することもできます。
ガバナンス枠組みの適応的アップデートの推進:業界団体、標準化機関、規制当局が協働し、量子耐性の要件をAIの安全標準、データ保護規制、および製品認証体系に組み込み、研究していくべきです。QMLの倫理審査に先立って、研究の枠組みとガイドラインを事前に整備します。
分野横断的な人材育成と研究の強化:AIだけでなく、量子計算と暗号学も理解できる複合型人材を育成し、AI安全研究に量子脅威モデルを組み込むことを後押しし、量子耐性のあるAI安全技術の研究開発を資金面で支援します。
量子計算がもたらす課題は巨大ですが、同時に、デジタル世界の基盤を見直し、強化するための機会も提供してくれます。事前の計画、協調的なイノベーション、機敏なガバナンスによって、私たちは、量子計算の恩恵を受け入れつつ、その安全リスクにも耐えられる、より強靭なAIの未来を構築できる可能性があります。