暗号+AIアプリケーションの将来性と課題

上級Feb 08, 2024
この記事では、分散型暗号通貨が中央集権型人工知能のバランスをどのようにとるかを含め、暗号通貨と人工知能の交差点を探ります。 AIは偽情報や不正行為を特定するのに役立ちますが、権力の乱用を避けるように注意する必要があります。 AIはゲームのインターフェースやルールの一部にもなり得ますが、敵対的機械学習による課題に注意する必要があります。
暗号+AIアプリケーションの将来性と課題

Worldcoin チームと Modulus Labs チーム、Xinyuan Sun 氏、Martin Koeppelmann 氏、Illia Polosukhin 氏のフィードバックと議論に感謝します。

何年にもわたって、多くの人々が私に同様の質問をしてきました:私が最も実り多いと思う暗号とAIの交差点は何ですか? 暗号資産とAIは、過去10年間の2つの主要なディープ(ソフトウェア)テクノロジートレンドであり、この2つの間には何らかのつながりがあるに違いないと感じています。 暗号の分散化はAIの 集中化とのバランスをとることができ、AIは不透明で暗号は透明性をもたらし、AIにはデータが必要であり、ブロックチェーンはデータの保存と追跡に適しているなど、表面的な雰囲気のレベルで相乗効果を思いつくのは簡単です。 しかし、何年にもわたって、人々が私にレベルを深く掘り下げて特定のアプリケーションについて話してほしいと頼むと、私の答えは「はい、いくつかありますが、それほど多くはありません」という残念なものでした。

過去3年間で、最新の LLMの形ではるかに強力なAIが台頭し、ブロックチェーンのスケーリングソリューションだけでなく、 ZKPFHE、(2パーティおよびNパーティ) MPCの形ではるかに強力な暗号が台頭したことで、私はこの変化を目の当たりにし始めています。 ブロックチェーンエコシステム内でのAIの有望なアプリケーション、またはAIと暗号化の併用は確かにいくつかありますが、 AIの適用方法には注意が必要です。 特に難しいのは、暗号技術では、オープンソースが真に安全なものにする唯一の方法ですが、AIでは、モデル(またはそのトレーニングデータ)がオープンであると、 敵対的な機械学習 攻撃に対する脆弱性が大幅に高まることです。 この記事では、暗号+AIが交差する可能性のあるさまざまな方法の分類と、各カテゴリの見通しと課題について説明します。

uETHのブログ記事から、暗号+AIの交差点の概要をまとめました。しかし、これらの相乗効果を具体的なアプリケーションで実際に実現するには何が必要でしょうか?

4つの主要なカテゴリー

AIは非常に広い概念であり、「AI」は、明示的に指定するのではなく、大きな計算スープをかき混ぜて、必要なプロパティを持つアルゴリズムを生成するようにスープを後押しするある種の最適化圧力をかけることによって作成するアルゴリズムのセットと考えることができます。 この説明は決して軽視すべきではありません:それはそもそも私たち人間 を創造 した プロセス を含んで います!しかし、AIアルゴリズムには、非常に強力なことを行う能力と、内部で何が起こっているのかを知る能力や理解する能力の限界という、いくつかの共通の特性があることを意味します。

AIを分類する方法はたくさんあります。この記事では、AIとブロックチェーン(<a href=" https://medium.com/@virgilgr /ethereum-is-game-changing-technology-literally-d67e01a01cf8">「ゲーム」の作成のためのプラットフォームとして説明されています)の相互作用について説明するために、次のように分類します。

  • ゲームのプレイヤーとしての AI [最高実行可能性]: インセンティブの最終的な源泉が人間の入力を伴うプロトコルから来るメカニズムに参加している AI です。
  • ゲームへのインターフェースとしてのAI[高い可能性を秘めているが、リスクを伴う]:AIは、ユーザーが自分の周りの暗号の世界を理解し、彼らの行動(つまり、 署名されたメッセージとトランザクション)は彼らの意図と一致し、だまされたり詐欺に遭ったりすることはありません。
  • ゲームのルールとしてのAI:ブロックチェーン、DAO、およびAIを直接呼び出す同様のメカニズム。 例えば考えてください。 「AIが判断する」
  • ゲームの目的としてのAI(長期的だが興味をそそる):ブロックチェーン、DAO、および同様のメカニズムを設計し、他の目的に使用できるAIを構築および維持し、暗号ビットを使用してトレーニングのインセンティブを高めたり、AIが個人データを漏らしたり悪用されたりするのを防ぎます。

これらを1つずつ見ていきましょう。

ゲームのプレイヤーとしてのAI

これは、少なくとも オンチェーン分散型取引所(DEX) が大きく使われるようになってから、10年近く前から存在していたカテゴリーです。 取引所があるときはいつでも、アービトラージを通じてお金を稼ぐ機会があり、ボットは人間よりもはるかに優れたアービトラージを行うことができます。 このユースケースは、現在よりもはるかに単純なAIであっても、長い間存在していましたが、最終的には非常に現実的なAI+暗号の交差点です。 最近では、MEVアービトラージボットが お互いを悪用することがよくあります。 オークションや取引を伴うブロックチェーンアプリケーションを持っているときはいつでも、アービトラージボットを持つことになります。

しかし、AIアービトラージボットは、はるかに大きなカテゴリーの最初の例に過ぎず、まもなく他の多くのアプリケーションが含まれるようになると予想しています。 AIが主役となる予測市場のデモであるAIOmenをご紹介します。

予測市場は、長い間、認識論技術の聖杯でした。 私は2014年当時 、予測市場をガバナンス(「未来」)のインプットとして使うことに興奮し、前回の選挙だけでなく、 最近では 予測市場を 広範囲にいじってみ ました。しかし、これまでのところ、予測市場はあまり普及しておらず、その理由としてよく挙げられる理由として、最大の参加者はしばしば不合理である、正しい知識を持つ人々は、多額の資金が関与しない限り、時間をかけて賭けることをいとわない、市場はしばしば薄い、などなどが挙げられます。

これに対する1つの答えは、 Polymarket やその他の新しい予測市場で進行中のUXの改善を指摘し、以前のイテレーションが失敗した場所で成功することを期待することです。 結局のところ、人々は スポーツに何百億ドルも賭けることをいとわないのに、なぜ人々は米国の選挙や LK99 に十分なお金を賭けて、真面目なプレーヤーが参入し始めるのが理にかなっているのでしょうか? しかし、この議論は、これまでのイテレーションが(少なくとも支持者の夢と比較して)このレベルの規模に到達できなかったという事実と戦わなければならないため、予測市場を成功させるには何か新しいものが必要なようです。 そこで、2010年代には見られなかった予測市場エコシステムの特定の特徴として、2010年代には見られなかった、AIのユビキタスな参加の可能性を指摘するという回答もあります。

AIは時給1ドル以下で働き、百科事典の知識を持っており、それだけでは不十分な場合は、リアルタイムのWeb検索機能と統合することもできます。 市場を作り、50ドルの流動性補助金を出せば、人間は入札するほど気にしませんが、何千ものAIが簡単に質問のあちこちに群がり、可能な限り最善の推測をします。 1つの質問に対して良い仕事をするインセンティブは小さいかもしれませんが、一般的に良い予測をするAIを作るインセンティブは数百万ドルになるかもしれません。 なお、ほとんどの質問に人間が裁く必要はなく、 Augur やKlerosに似たマルチラウンドの紛争システムを使用することができ、AIも以前のラウンドに参加することになります。 人間が対応する必要があるのは、一連のエスカレーションが起こり、双方が多額の資金を投入した数少ないケースだけです。

これは強力なプリミティブであり、「予測市場」をこのような微視的なスケールで機能させることができれば、「予測市場」プリミティブを他の多くの種類の質問に再利用できるからです。

  • このソーシャルメディアの投稿は[利用規約]の下で受け入れられますか?
  • 株式Xの価格はどうなりますか(例: 見なさい Numerai)
  • 現在私にメッセージを送っているこのアカウントは実際にイーロンマスクですか?
  • オンラインのタスクマーケットプレイスでのこの作品の提出は受け入れられますか?
  • https://examplefinance.network のdappは詐欺ですか?
  • 0x1b54....98c3 実際に「Casinu Inu」ERC20トークンのアドレスは?

これらのアイデアの多くは、私が "d/acc" に関する私の著作で "情報防御" と呼んでいるものに向かっていることに気づくかもしれません。 大まかに言うと、問題は、ユーザーが真偽の情報を区別し、詐欺を検知するのを、中央集権的な機関に善悪の判断権を与えずに、誰がその立場を悪用するかということです。 ミクロレベルでは、その答えは「AI」です。 しかし、マクロレベルでは、誰がAIを構築するのかが問題になります。AIは、それを生み出したプロセスを反映しているため、バイアスがかかることは避けられません。 したがって、さまざまなAIがどれだけうまくやっているかを判断し、AIがプレイヤーとしてゲームに参加できる、より高度なゲームが必要です。

AIが、人間からのインプットを収集するオンチェーンのメカニズム(分散型市場ベースの RLHFと呼ぶか)によって、最終的に報酬またはペナルティ(確率的に)を得るメカニズムに参加するこのAIの使用法は、本当に検討する価値があると思います。 ブロックチェーンのスケーリングがようやく成功し、以前は実現できなかった「マイクロ」なものをオンチェーンでようやく実行可能にしたため、今こそこのようなユースケースをもっと検討する絶好の機会です。

関連するアプリケーションのカテゴリは、ブロックチェーンを使用して、支払いやスマートコントラクトを使用して信頼できるコミットメントを行うことで、より 適切に協力するために高度に自律的なエージェントの方向に進んでいます。

ゲームへのインターフェースとしてのAI

私が 執筆 で提起したアイデアの 1 つは、ユーザーがナビゲートしているオンライン世界の危険を解釈して特定することで、ユーザーの利益を保護するユーザー向けソフトウェアを作成する市場機会があるという考えです。 この既存の例の1つは、Metamaskの詐欺検出機能です。

もう一つの例は、 Rabbyウォレット のシミュレーション機能で、ユーザーが署名しようとしているトランザクションの予想される結果を表示します。

Rabbyは、私の「BITCOIN」(フルネームが「HarryPotterObamaSonic10Inu」らしいERC20ミームコインのティッカー)をすべてETHと交換する取引に署名した場合の結果を説明してくれました。

編集2024.02.02:この投稿の以前のバージョンでは、このトークンをビットコインになりすまそうとする詐欺と呼んでいました。 そうじゃないです;ミームコインです。 混乱を招いたことをお詫びします。

潜在的に、この種のツールはAIで強化される可能性があります。 AIは、あなたが参加しているDAppの種類、署名しているより複雑な操作の結果、特定のトークンが本物であるかどうかについて、より人間にわかりやすい説明を与えることができます(例: ビットコインは単なる文字列ではなく、通常、ERC20トークンではなく、価格が0.045ドルを超える主要な暗号通貨の名前であり、現代のLLMはそれを知っています)。 この方向で全力を尽くし始めているプロジェクトがあります(例えば、AIを主要なインターフェースとして使用する LangChainウォレット)。 私自身の意見では、純粋なAIインターフェースは、 他の種類のエラーのリスクを高めるため、現時点ではリスクが高すぎると思いますが、より従来のインターフェースを補完するAIは非常に実行可能になりつつあります。

特筆すべきリスクが 1 つあります。 これについては、後述の「ゲームのルールとしてのAI」のセクションで詳しく説明しますが、一般的な問題は敵対的機械学習です:ユーザーがオープンソースウォレット内のAIアシスタントにアクセスできる場合、悪意のある人もそのAIアシスタントにアクセスできるため、そのウォレットの防御をトリガーしないように詐欺を最適化する機会が無限にあります。 最新のAIには必ずどこかにバグがあり、 モデルへのアクセスが限られているトレーニングプロセスでも、バグを見つけるのはそれほど難しくありません。

個々のAIは同じリスクに対して脆弱ですが、何十人もの人々が継続的に反復し、改善するオープンなエコシステムを意図的に作り上げているのです。 さらに、個々のAIはクローズドであり、システムのセキュリティは、各プレイヤーの内部動作ではなく、ゲームのルールのオープン性から生まれます。

概要: AI は、ユーザーが平易な言葉で何が起こっているのかを理解するのに役立ち、リアルタイムの家庭教師として機能し、ユーザーを間違いから保護できますが、悪意のある情報提供者や詐欺師に対して直接使用しようとする場合は警告が必要です。

ゲームのルールとしてのAI

さて、多くの人がワクワクしているが、最もリスクが高く、最も慎重に踏み込む必要があると思われるアプリケーション、つまり、私がAIと呼んでいるものがゲームのルールの一部になっているアプリケーションにたどり着きます。 これは、主流の政治エリートの間で「AI裁判官」に対する興奮と結びついています。 「世界政府サミット」のウェブサイトの この記事 を参照)、ブロックチェーンアプリケーションにもこれらの欲求の類似物があります。 ブロックチェーンベースのスマートコントラクトやDAOが主観的な決定を下す必要がある場合(例えば、特定の作業成果物は職務委託契約で受け入れられるか? 鎖の楽観主義の法則のような自然言語憲法 正しい解釈はどれですか?)、AIを単に契約やDAOの一部にして、これらのルールを施行する手助けをすることはできますか?

ここで、 敵対的機械学習 は非常に困難な課題になります。 基本的な 2 文の why は、次のとおりです。

メカニズムで重要な役割を果たすAIモデルが閉じていると、その内部動作を検証できないため、中央集権的なアプリケーションと変わりません。 AIモデルがオープンであれば、攻撃者はそれをローカルでダウンロードしてシミュレートし、モデルを騙すために高度に最適化された攻撃を設計し、ライブネットワークで再生することができます。

敵対的機械学習の例。 出典: researchgate.net

さて、このブログの頻繁な読者(またはクリプトバースの住人)は、すでに私よりも先を行き、考えているかもしれません。 私たちは、派手なゼロ知識証明やその他の非常にクールな形式の暗号を持っています。 確かに、暗号の魔法をかけて、攻撃者が攻撃を最適化できないようにモデルの内部動作を隠すことができますが、同時に、モデルが正しく実行されており、合理的な基礎となるデータセットに対する合理的なトレーニングプロセスを使用して構築されている ことを証明する ことができます。

通常、これはまさに私がこのブログと他の執筆の両方で提唱しているタイプの考え方です。 しかし、AI関連の計算の場合、2つの大きな反対意見があります。

  1. 暗号化のオーバーヘッド: SNARK (または MPC など) 内で何かを行うのは、「平文」で行うよりもはるかに効率が悪くなります。 AIはすでに非常に計算量が多いことを考えると、暗号のブラックボックス内でAIを行うことは計算上実行可能なのでしょうか?
  2. ブラックボックスの敵対的機械学習攻撃:モデルの内部動作を あまり知らなくても 、AIモデルに対する攻撃を最適化する方法があります。 また、隠しすぎると、トレーニング データを選択した人がポイズニング攻撃でモデルを簡単に破損するリスクがあります。

どちらも複雑なウサギの穴なので、それぞれを順番に見ていきましょう。

暗号化のオーバーヘッド

暗号化ガジェット、特にZK-SNARKやMPCなどの汎用ガジェットは、オーバーヘッドが大きくなります。 イーサリアムのブロックは、クライアントが直接検証するのに数百ミリ秒かかりますが、そのようなブロックの正しさを証明するためのZK-SNARKの生成には数時間かかることがあります。 MPC などの他の暗号化ガジェットの一般的なオーバーヘッドは、さらに悪化する可能性があります。 AIの計算は既に高価で、最も強力なLLMは、人間が読めるよりも少しだけ速く個々の単語を出力することができ、モデルのトレーニングに数百万ドルの計算コストがかかることは言うまでもありません。 最上位のモデルと、 トレーニング コストパラメーター数 を大幅に節約しようとするモデルとの品質の違いは大きいです。 一見すると、これはAIを暗号化で包み込むことでAIに保証を加えようとするプロジェクト全体を疑う非常に良い理由です。

しかし、幸いなことに、AIは非常に特殊なタイプの計算であるため、ZK-EVMのような「非構造化」タイプの計算ではメリットが得られないあらゆる種類の最適化が可能です。 AIモデルの基本構造を調べてみましょう。

通常、AI モデルは、 ReLU) 関数 (y = max(x, 0)) などの要素ごとの非線形演算が散在する一連の行列乗算で構成されます。 漸近的には、行列の乗算がほとんどの作業を占め、2つのN*N行列の乗算 には

(2.8)

一方、非線形演算の数ははるかに少なくなります。 多くの形式の暗号化は、ほぼ「無料」で線形演算(少なくともモデルを暗号化し、それへの入力は暗号化しない場合)をほぼ「無料」で実行できるため、これは暗号化にとって非常に便利です。

暗号学者であれば、 準同型暗号の文脈で同様の現象をすでに聞いたことがあるでしょう:暗号化された暗号文に加算を実行するのは本当に簡単ですが、乗算は非常に難しく、2009年まで無制限の深さでそれを行う方法はまったくわかりませんでした。

ZK-SNARKの場合、 2013年のこのようなプロトコルは、行列乗算の証明のオーバーヘッドが4倍未満であることを示しています。 残念ながら、非線形レイヤーのオーバーヘッドは依然として大きく、実際の最良の実装では約 200 倍のオーバーヘッドが示されています。 しかし、さらなる研究によって、これを大幅に減らすことができるという希望があります。GKRに基づく最近のアプローチと、 GKRの主要コンポーネントがどのように機能するかについての 私自身の簡単な説明については、 Ryan Cao氏のプレゼンテーション を参照してください。

しかし、多くのアプリケーションでは、AI出力が正しく計算されたことを証明するだけでなく、モデルを非表示にすることも必要です。 これには素朴なアプローチがあり、モデルを分割して、異なるサーバーのセットが各レイヤーを冗長に格納し、一部のレイヤーをリークしているサーバーの一部が大量のデータをリークしないようにすることができます。 しかし、 特殊なマルチパーティ計算には、驚くほど効果的な形式もあります。

これらのアプローチの 1 つを簡略化した図で、モデルは非公開に、入力は公開します。 モデルと入力を非公開にしたい場合は、もう少し複雑になりますが、 論文の8〜9ページを参照してください。

AI計算の大部分は行列乗算であり、非常に効率的なZK-SNARKやMPC(あるいはFHE)を作ることができるため、AIを暗号ボックス内に入れる場合の総オーバーヘッドは驚くほど低いのです。 一般に、サイズが小さいにもかかわらず、最大のボトルネックとなるのは非線形レイヤーです。おそらく、 ルックアップ引数 のような新しい手法が役立つでしょう。

ブラックボックスの敵対的機械学習

さて、もうひとつの大きな問題、つまり、モデルの内容が非公開で、モデルへの「APIアクセス」しかできない場合でも、どのような攻撃を行うことができるかを考えてみましょう。 2016年の論文を引用する:

多くの機械学習モデルは、敵対的な例、つまり機械学習モデルが誤った出力を生成するように特別に細工された入力に対して脆弱です。 1 つのモデルに影響を与える敵対的例は、2 つのモデルが異なるアーキテクチャを持っているか、異なるトレーニング セットでトレーニングされている場合でも、両方のモデルが同じタスクを実行するようにトレーニングされている限り、別のモデルに影響を与えることがよくあります。 したがって、攻撃者は、独自の代替モデルをトレーニングし、代替モデルに対する敵対的な例を作成し、被害者に関する情報をほとんど持たずに、それらを被害者モデルに転送する可能性があります。

「ターゲット分類器」へのブラックボックスアクセスを使用して、ローカルに保存された独自の「推論された分類子」をトレーニングおよび調整します。 次に、推論されたクラスフィアに対して最適化された攻撃をローカルで生成します。 これらの攻撃は、多くの場合、元のターゲット分類子に対しても機能することがわかりました。 ダイアグラムのソース

場合によっては、攻撃しようとしているモデルへのアクセスが非常に限られているか、まったくない場合でも、トレーニング データだけを認識して攻撃を作成することもできます。 2023年現在、この種の攻撃は大きな問題であり続けています。

このようなブラックボックス攻撃を効果的に抑えるには、次の2つのことを行う必要があります。

  1. モデルをクエリできるユーザーまたは対象を、どの程度制限するかを実際に制限します。 APIアクセスが無制限のブラックボックスは安全ではありません。APIアクセスが非常に制限されているブラックボックスは、ブラックボックスである可能性があります。
  2. 学習データの作成に使用されたプロセスが破損していないという信頼度を維持しながら、学習データを非表示にします。

前者で最も多くのことを成し遂げたプロジェクトはおそらくWorldcoinであり、私はその以前のバージョン(他のプロトコルの中でも)を 詳細に分析しています。 Worldcoinは、(i)虹彩スキャンを類似性の比較が容易な短い「虹彩コード」に変換し、(ii)スキャン対象が実際に人間であることを確認するために、プロトコルレベルでAIモデルを広範囲に使用しています。 Worldcoinが頼りにしている主な防御策は、誰もAIモデルを呼び出すことを許さず、信頼できるハードウェアを使用して、モデルがOrbのカメラによってデジタル署名された入力のみを受け入れるようにしているという事実です。

このアプローチはうまくいくとは限っておらず、生体認証AIに対して、顔に貼ることができる物理的なパッチやジュエリーの形で敵対的な攻撃を行うことができることが判明しました。

額に余分なものを身に着けて、検出を回避したり、他の人になりすましたりします。 ソース

しかし、AIモデル自体を隠蔽し、クエリの数を大幅に制限し、各クエリを何らかの方法で認証することを要求して、すべての防御を組み合わせることで、システムが安全になるほど困難な敵対的攻撃が可能になることが期待されています。 Worldcoinの場合、これらの他の防御を強化することで、信頼できるハードウェアへの依存を減らし、プロジェクトの分散化を促進することもできます。

そして、2番目の部分、つまりトレーニングデータを隠すにはどうすればよいかを考えてみましょう。 「AIを民主的に統治するDAO」が実際に理にかなっているのは、誰がトレーニングデータを送信できるか(そしてデータ自体にどのような証明が必要か)、誰がクエリをどれだけ行うことができるか、そしてその数を管理するオンチェーンDAOを作成し、MPCなどの暗号化技術を使用して、個々のユーザーのトレーニング入力からAIの作成と実行のパイプライン全体を暗号化することができます。各クエリの最終出力。 このDAOは、データを提出した人々に報酬を支払うという非常に人気のある目的を同時に満たすことができます。

この計画は非常に野心的であり、非現実的であることが判明する可能性のあるいくつかの方法があることを改めて述べることが重要です。

  • 暗号化のオーバーヘッドは、この種の完全なブラックボックスアーキテクチャが従来のクローズドな「私を信じて」アプローチと競合するには、依然として高すぎる可能性があります。
  • トレーニング データの送信プロセスを分散化し、ポイズニング攻撃から保護する良い方法がないことが判明する可能性があります。
  • マルチパーティ計算ガジェットは、参加者が共謀することで安全性やプライバシーの保証を破る可能性があります:結局のところ、これはクロスチェーンの暗号通貨ブリッジで何度も起こっています。

「AIジャッジをやるな、それはディストピアだ」という大きな赤い警告ラベルでこのセクションを始めなかった理由の1つは、私たちの社会がすでに、ソーシャルメディア上でどのような投稿や政治的意見をブーストしたり、ブースト解除したり、検閲したりするかを決定するアルゴリズムである、責任を負わない中央集権的なAIジャッジに大きく依存しているからです。 この段階でこの傾向をさらに拡大するのはかなり悪い考えだと思いますが、ブロックチェーンコミュニティがAIをさらに実験することが、それを悪化させる一因になる可能性は大きくないと思います。

実際、暗号技術がこれらの既存の中央集権的なシステムでさえも改善できる、かなり基本的な低リスクの方法がいくつかあり、私はかなり自信を持っています。 簡単な手法の1つが、公開を遅らせた検証済みAIで、ソーシャルメディアサイトがAIベースの投稿ランキングを作成すると、そのランキングを生成したモデルのハッシュを証明するZK-SNARKを公開することができます。 このサイトは、その後、AIモデルを明らかにすることを約束することができます。1年遅れ。 モデルが公開されると、ユーザーはハッシュをチェックして正しいモデルがリリースされたことを確認でき、コミュニティはモデルの公平性を検証するためにテストを実行できます。 公開が遅れると、モデルが公開される頃には、すでに古くなっていることが保証されます。

ですから、中央集権的な世界と比較すると、問題は、私たちがより良くできるかどうかではなく、どれだけうまくやれるかということです。 しかし、分散型の世界では、誰かが構築した場合など、注意することが重要です。予測市場やAIオラクルを使ったステーブルコインで、そのオラクルが攻撃可能であることが判明した場合、それは一瞬で消えてしまう可能性のある巨額のお金です。

ゲームの目的としてのAI

中身が誰にも知られていないブラックボックスであるスケーラブルな分散型プライベートAIを作るための上記の手法が実際に機能するのであれば、ブロックチェーンを超えた実用性を持つAIの作成にも使用できます。 NEARプロトコルチームは、これを 継続的な作業の中核的な目標にしています。

これには 2 つの理由があります。

  1. ブロックチェーンとMPCを組み合わせてトレーニングと推論のプロセスを実行することで「信頼できるブラックボックスAI」を作ることができれば、ユーザーがシステムに偏りや不正行為を心配する多くのアプリケーションが恩恵を受ける可能性があります。 多くの人々は、私たちが依存するシステム上重要なAIの 民主的なガバナンス を望んでいます。暗号技術やブロックチェーンベースの技術は、そのための道筋となる可能性があります。
  2. AIの安全性の観点からは、これは自然なキルスイッチも備えた分散型AIを作成する手法であり、悪意のある動作にAIを使用しようとするクエリを制限する可能性があります。

また、「暗号インセンティブを使用して、より優れたAIの作成を奨励する」ことは、暗号を使用して完全に暗号化するというウサギの穴を完全に陥ることなく実行できることも注目に値します: BitTensor のようなアプローチは、このカテゴリに分類されます。

結論

ブロックチェーンとAIの両方がより強力になっている今、2つの領域が交差するユースケースが増えています。 ただし、これらのユースケースの中には、他のユースケースよりもはるかに理にかなった、はるかに堅牢なものもあります。 一般的には、基盤となるメカニズムは以前と同じように大まかに設計され続けるが、個々のプレーヤーがAIになり、メカニズムがはるかにミクロなスケールで効果的に動作できるようにするユースケースは、最もすぐに有望であり、最も簡単に正しく理解できます。

正しく行うのが最も難しいのは、ブロックチェーンと暗号化技術を使用して「シングルトン」、つまり一部のアプリケーションが何らかの目的で依存する単一の分散型信頼できるAIを作成しようとするアプリケーションです。 これらのアプリケーションは、機能性と、その問題に対するより主流のアプローチに関連する中央集権化のリスクを回避する方法でAIの安全性を向上させるという点で有望です。 しかし、根底にある仮定が破綻する可能性も数多くあります。したがって、特にこれらのアプリケーションを高価値でリスクの高いコンテキストにデプロイする場合は、慎重に検討する価値があります。

これらすべての分野でAIの建設的なユースケースの試みがさらに行われ、どれが本当に大規模に実行可能かがわかるようになることを楽しみにしています。

免責事項:

  1. この記事は[vitalik]からの転載です。 すべての著作権は原作者[vitalik]に帰属します。 この転載に異議がある場合は、 Gate Learn チームに連絡していただければ、迅速に対応いたします。
  2. 免責事項:この記事で表明された見解や意見は、著者のものであり、投資アドバイスを構成するものではありません。
  3. 記事の他言語への翻訳は、Gate Learnチームによって行われます。 特に明記されていない限り、翻訳された記事を複製、配布、盗用することは禁止されています。
learn.articles.start.now
learn.articles.start.now.voucher
learn.articles.create.account