Janji dan tantangan aplikasi kripto + AI

LanjutanFeb 08, 2024
Artikel ini mengeksplorasi titik temu antara mata uang kripto dan kecerdasan buatan, termasuk bagaimana mata uang kripto terdesentralisasi menyeimbangkan kecerdasan buatan yang tersentralisasi. AI dapat membantu mengidentifikasi informasi palsu dan perilaku curang, tetapi harus berhati-hati untuk menghindari penyalahgunaan kekuasaan. AI juga dapat menjadi bagian dari antarmuka dan aturan permainan, tetapi tantangan dari pembelajaran mesin yang berlawanan harus diperhatikan.
Janji dan tantangan aplikasi kripto + AI

Terima kasih khusus kepada tim Worldcoin dan Modulus Labs, Xinyuan Sun, Martin Koeppelmann, dan Illia Polosukhin atas umpan balik dan diskusinya.

Banyak orang selama bertahun-tahun menanyakan pertanyaan serupa kepada saya: apa saja titik temu antara kripto dan AI yang saya anggap paling bermanfaat? Ini adalah pertanyaan yang masuk akal: kripto dan AI adalah dua tren teknologi (perangkat lunak) utama dalam satu dekade terakhir, dan rasanya pasti ada hubungan antara keduanya. Sangat mudah untuk menghasilkan sinergi pada tingkat getaran yang dangkal: desentralisasi kripto dapat menyeimbangkan sentralisasi AI, AI tidak jelas dan kripto membawa transparansi, AI membutuhkan data dan blockchain baik untuk menyimpan dan melacak data. Tetapi selama bertahun-tahun, ketika orang meminta saya untuk menggali lebih dalam dan berbicara tentang aplikasi tertentu, tanggapan saya selalu mengecewakan: "ya, ada beberapa hal, tetapi tidak terlalu banyak".

Dalam tiga tahun terakhir, dengan munculnya AI yang jauh lebih kuat dalam bentuk LLM modern, dan munculnya kripto yang jauh lebih kuat tidak hanya dalam bentuk solusi penskalaan blockchain tetapi juga ZKP, FHE, (dua pihak dan N-party) MPC, saya mulai melihat perubahan ini. Memang ada beberapa aplikasi AI yang menjanjikan di dalam ekosistem blockchain, atau AI bersama dengan kriptografi, meskipun penting untuk berhati-hati dalam menerapkan AI. Tantangan khususnya adalah: dalam kriptografi, open source adalah satu-satunya cara untuk membuat sesuatu yang benar-benar aman, tetapi dalam AI, model (atau bahkan data pelatihannya) yang terbuka sangat meningkatkan kerentanannya terhadap serangan pembelajaran mesin yang merugikan. Artikel ini akan membahas klasifikasi berbagai cara yang dapat digunakan oleh kripto + AI untuk bersinggungan, serta prospek dan tantangan dari setiap kategori.

Ringkasan tingkat tinggi tentang persimpangan crypto+AI dari posting blog uETH. Namun, apa yang diperlukan untuk mewujudkan sinergi ini dalam aplikasi nyata?

Empat kategori utama

AI adalah konsep yang sangat luas: Anda dapat menganggap "AI" sebagai sekumpulan algoritme yang Anda buat bukan dengan menentukannya secara eksplisit, melainkan dengan mengaduk sup komputasi yang besar dan memberikan semacam tekanan pengoptimalan yang mendorong sup untuk menghasilkan algoritme dengan properti yang Anda inginkan. Deskripsi ini jelas tidak boleh dianggap remeh: deskripsi ini mencakup proses yang menciptakan kita sebagai manusia sejak awal! Namun, hal ini berarti bahwa algoritme AI memiliki beberapa sifat yang sama: kemampuannya untuk melakukan hal-hal yang sangat hebat, bersamaan dengan keterbatasan kemampuan kita untuk mengetahui atau memahami apa yang terjadi di balik layar.

Ada banyak cara untuk mengkategorikan AI; untuk tujuan posting ini, yang berbicara tentang interaksi antara AI dan blockchain (yang telah dijelaskan sebagai platform untuk <a href="https://medium.com/@virgilgr/ethereum-adalah-permainan-yang-mengubah-teknologi-secara-harfiah-d67e01a01cf8"> menciptakan "permainan"), saya akan mengkategorikannya sebagai berikut:

  • AI sebagai pemain dalam sebuah permainan [kelayakan tertinggi]: AI yang berpartisipasi dalam mekanisme di mana sumber utama insentif berasal dari protokol dengan input manusia.
  • AI sebagai antarmuka ke permainan [berpotensi tinggi, tetapi dengan risiko]: AI membantu pengguna untuk memahami dunia kripto di sekitar mereka, dan untuk memastikan bahwa perilaku mereka (mis. pesan dan transaksi yang ditandatangani) sesuai dengan niat mereka dan mereka tidak tertipu atau ditipu.
  • AI sebagai aturan main [melangkahlah dengan sangat hati-hati]: blockchain, DAO, dan mekanisme serupa yang secara langsung memanggil AI. Pikirkan misalnya. "Hakim AI"
  • AI sebagai tujuan permainan [jangka panjang tetapi menarik]: merancang blockchain, DAO, dan mekanisme serupa dengan tujuan membangun dan memelihara AI yang dapat digunakan untuk tujuan lain, menggunakan bit kripto baik untuk memberi insentif pelatihan yang lebih baik atau untuk mencegah AI membocorkan data pribadi atau disalahgunakan.

Mari kita bahas satu per satu.

AI sebagai pemain dalam sebuah game

Ini sebenarnya merupakan kategori yang sudah ada selama hampir satu dekade, setidaknya sejak bursa terdesentralisasi on-chain (DEX ) mulai digunakan secara signifikan. Setiap kali ada pertukaran, ada peluang untuk menghasilkan uang melalui arbitrase, dan bot dapat melakukan arbitrase jauh lebih baik daripada yang bisa dilakukan manusia. Kasus penggunaan ini telah ada sejak lama, bahkan dengan AI yang jauh lebih sederhana daripada yang kita miliki saat ini, tetapi pada akhirnya ini adalah persimpangan AI + kripto yang sangat nyata. Baru-baru ini, kami telah melihat bot arbitrase MEV sering kali mengeksploitasi satu sama lain. Setiap kali Anda memiliki aplikasi blockchain yang melibatkan lelang atau perdagangan, Anda akan memiliki bot arbitrase.

Tetapi bot arbitrase AI hanyalah contoh pertama dari kategori yang jauh lebih besar, yang saya perkirakan akan segera mulai menyertakan banyak aplikasi lain. Perkenalkan AIOmen, sebuah demo pasar prediksi di mana AI menjadi pemainnya:

Pasar prediksi telah menjadi cawan suci teknologi epistemik untuk waktu yang lama; saya sangat antusias menggunakan pasar prediksi sebagai masukan untuk pemerintahan ("futarchy") pada tahun 2014, dan bermain-main dengannya secara ekstensif pada pemilu terakhir dan juga baru-baru ini. Namun sejauh ini pasar prediksi belum terlalu berkembang dalam praktiknya, dan ada beberapa alasan yang umum diberikan mengapa: peserta terbesar sering kali tidak rasional, orang-orang dengan pengetahuan yang tepat tidak mau meluangkan waktu dan bertaruh kecuali jika ada banyak uang yang terlibat, pasar sering kali tipis, dll.

Salah satu tanggapan terhadap hal ini adalah dengan menunjukkan peningkatan UX yang sedang berlangsung di Polymarket atau pasar prediksi baru lainnya, dan berharap mereka akan berhasil di mana iterasi sebelumnya telah gagal. Lagipula, ceritanya, orang-orang bersedia bertaruh puluhan miliar untuk olahraga, jadi mengapa orang tidak mau bertaruh cukup banyak uang untuk bertaruh pada pemilihan umum AS atau LK99 sehingga mulai masuk akal bagi para pemain serius untuk mulai masuk? Namun argumen ini harus berhadapan dengan fakta bahwa, iterasi sebelumnya telah gagal mencapai tingkat skala ini (setidaknya dibandingkan dengan impian para pendukungnya), dan sepertinya Anda membutuhkan sesuatu yang baru untuk membuat pasar prediksi berhasil. Jadi, tanggapan yang berbeda adalah dengan menunjukkan satu fitur spesifik dari ekosistem pasar prediksi yang dapat kita harapkan untuk dilihat pada tahun 2020-an yang tidak kita lihat pada tahun 2010-an: kemungkinan partisipasi di mana-mana oleh AI.

AI bersedia bekerja dengan bayaran kurang dari $1 per jam, dan memiliki pengetahuan layaknya sebuah ensiklopedia - dan jika itu belum cukup, mereka bahkan bisa diintegrasikan dengan kemampuan pencarian web secara real-time. Jika Anda membuat pasar, dan memasang subsidi likuiditas sebesar $50, manusia tidak akan cukup peduli untuk menawar, tetapi ribuan AI akan dengan mudah mengerumuni pertanyaan dan membuat tebakan terbaik yang mereka bisa. Insentif untuk melakukan pekerjaan dengan baik pada satu pertanyaan mungkin sangat kecil, tetapi insentif untuk membuat AI yang dapat membuat prediksi yang baik secara umum bisa mencapai jutaan. Perhatikan bahwa secara potensial, Anda bahkan tidak memerlukan manusia untuk mengadili sebagian besar pertanyaan: Anda dapat menggunakan sistem perselisihan multi-putaran yang mirip dengan Augur atau Kleros, di mana AI juga akan menjadi orang yang berpartisipasi dalam putaran sebelumnya. Manusia hanya perlu merespons dalam beberapa kasus di mana serangkaian eskalasi telah terjadi dan sejumlah besar uang telah dikorbankan oleh kedua belah pihak.

Ini adalah primitif yang kuat, karena sekali "pasar prediksi" dapat dibuat untuk bekerja pada skala mikroskopis seperti itu, Anda dapat menggunakan kembali primitif "pasar prediksi" untuk berbagai jenis pertanyaan lainnya:

  • Apakah unggahan media sosial ini dapat diterima berdasarkan [ketentuan penggunaan]?
  • Apa yang akan terjadi pada harga saham X (mis. lihat Numerai)
  • Apakah akun yang saat ini mengirimi saya pesan ini benar-benar Elon Musk?
  • Apakah pengiriman pekerjaan di pasar tugas online ini dapat diterima?
  • Apakah dapp di https://examplefinance.network adalah penipuan?
  • Apakah 0x1b54....98c3 sebenarnya alamat token ERC20 "Casinu Inu"?

Anda mungkin memperhatikan bahwa banyak dari ide-ide ini mengarah pada apa yang saya sebut sebagai "pertahanan informasi" dalam tulisan saya tentang "d/acc". Secara garis besar, pertanyaannya adalah: bagaimana kita membantu pengguna untuk membedakan informasi yang benar dan yang salah serta mendeteksi penipuan, tanpa memberdayakan otoritas terpusat untuk memutuskan yang benar dan salah yang kemudian dapat menyalahgunakan posisi tersebut? Pada tingkat mikro, jawabannya adalah "AI". Namun pada tingkat makro, pertanyaannya adalah: siapa yang membangun AI? AI adalah cerminan dari proses yang menciptakannya, sehingga tidak dapat menghindari adanya bias. Oleh karena itu, ada kebutuhan untuk permainan tingkat yang lebih tinggi yang menilai seberapa baik kinerja AI yang berbeda, di mana AI dapat berpartisipasi sebagai pemain dalam permainan.

Penggunaan AI ini, di mana AI berpartisipasi dalam mekanisme di mana mereka pada akhirnya diberi penghargaan atau hukuman (secara probabilistik) oleh mekanisme on-chain yang mengumpulkan input dari manusia (sebut saja RLHF berbasis pasar yang terdesentralisasi?), adalah sesuatu yang menurut saya sangat layak untuk dilihat. Sekarang adalah waktu yang tepat untuk melihat lebih banyak kasus penggunaan seperti ini, karena penskalaan blockchain akhirnya berhasil, membuat apa pun yang "mikro" akhirnya dapat dilakukan secara on-chain, padahal sebelumnya tidak.

Kategori aplikasi terkait mengarah pada agen yang sangat otonom yang menggunakan blockchain untuk bekerja sama dengan lebih baik, baik melalui pembayaran atau dengan menggunakan kontrak pintar untuk membuat komitmen yang kredibel.

AI sebagai antarmuka ke dalam game

Salah satu ide yang saya kemukakan dalam tulisan saya adalah gagasan bahwa ada peluang pasar untuk menulis perangkat lunak yang berhadapan langsung dengan pengguna yang akan melindungi kepentingan pengguna dengan menafsirkan dan mengidentifikasi bahaya di dunia online yang sedang dijelajahi pengguna. Salah satu contoh yang sudah ada adalah fitur pendeteksi penipuan Metamask:

Contoh lainnya adalah fitur simulasi dompet Rabby, yang menunjukkan kepada pengguna konsekuensi yang diharapkan dari transaksi yang akan mereka tandatangani.

Rabby menjelaskan kepada saya konsekuensi dari menandatangani transaksi untuk menukarkan semua "BITCOIN" saya (ticker memecoin ERC20 yang nama lengkapnya adalah "HarryPotterObamaSonic10Inu") dengan ETH.

Sunting 2024.02.02: versi sebelumnya dari artikel ini menyebut token ini sebagai penipuan yang mencoba meniru bitcoin. Bukan, ini adalah memecoin. Mohon maaf atas kebingungannya.

Secara potensial, alat bantu semacam ini dapat diisi ulang dengan AI. AI dapat memberikan penjelasan yang jauh lebih kaya dan ramah manusia mengenai jenis dapp yang Anda ikuti, konsekuensi dari operasi yang lebih rumit yang Anda tandatangani, apakah token tertentu asli atau tidak (mis. BITCOIN bukan hanya sebuah rangkaian karakter, melainkan nama sebuah mata uang kripto utama, yang bukan merupakan token ERC20 dan memiliki harga yang jauh lebih tinggi daripada $0,045, dan LLM modern akan mengetahui hal itu), dan seterusnya. Ada beberapa proyek yang mulai mengarah ke arah ini (misalnya dompet LangChain, yang menggunakan AI sebagai antarmuka utama). Pendapat saya sendiri adalah bahwa antarmuka AI murni mungkin terlalu berisiko saat ini karena meningkatkan risiko jenis kesalahan lainnya, tetapi AI yang melengkapi antarmuka yang lebih konvensional menjadi sangat layak.

Ada satu risiko khusus yang perlu disebutkan. Saya akan membahas hal ini lebih lanjut di bagian "AI sebagai aturan main" di bawah ini, tetapi masalah umumnya adalah pembelajaran mesin yang bersifat permusuhan: jika pengguna memiliki akses ke asisten AI di dalam dompet sumber terbuka, orang-orang jahat akan memiliki akses ke asisten AI tersebut juga, sehingga mereka akan memiliki peluang tak terbatas untuk mengoptimalkan penipuan mereka untuk tidak memicu pertahanan dompet tersebut. Semua AI modern memiliki bug di suatu tempat, dan tidak terlalu sulit untuk proses pelatihan, bahkan yang hanya memiliki akses terbatas ke model, untuk menemukannya.

Di sinilah "AI yang berpartisipasi dalam pasar mikro on-chain" bekerja lebih baik: setiap AI individu rentan terhadap risiko yang sama, tetapi Anda dengan sengaja menciptakan ekosistem terbuka yang terdiri dari lusinan orang yang terus-menerus mengulang dan meningkatkannya secara berkelanjutan. Selain itu, setiap AI bersifat tertutup: keamanan sistem berasal dari keterbukaan aturan permainan, bukan cara kerja internal setiap pemain.

Ringkasan: AI dapat membantu pengguna memahami apa yang sedang terjadi dalam bahasa yang sederhana, AI dapat berfungsi sebagai tutor waktu nyata, AI dapat melindungi pengguna dari kesalahan, tetapi berhati-hatilah saat mencoba menggunakannya secara langsung untuk melawan pemberi informasi palsu dan penipu yang jahat.

AI sebagai aturan main

Sekarang, kita sampai pada aplikasi yang sangat diminati oleh banyak orang, tetapi menurut saya adalah yang paling berisiko, dan di mana kita harus melangkah dengan sangat hati-hati: apa yang saya sebut sebagai AI yang menjadi bagian dari aturan main. Hal ini berkaitan dengan kegembiraan di kalangan elit politik arus utama tentang "hakim AI" (misalnya. lihat artikel ini di situs web "World Government Summit"), dan ada analog dari keinginan ini dalam aplikasi blockchain. Jika kontrak pintar berbasis blockchain atau DAO perlu membuat keputusan subjektif (misalnya, apakah produk kerja tertentu dapat diterima dalam kontrak kerja-untuk-sewa? Mana interpretasi yang tepat untuk konstitusi bahasa alami seperti Hukum Rantai Optimisme?), bisakah Anda membuat AI hanya menjadi bagian dari kontrak atau DAO untuk membantu menegakkan aturan-aturan ini?

Di sinilah pembelajaran mesin yang bersifat permusuhan akan menjadi tantangan yang sangat berat. Argumen dasar dari dua kalimat alasannya adalah sebagai berikut:

Jika model AI yang memainkan peran kunci dalam sebuah mekanisme tertutup, Anda tidak dapat memverifikasi cara kerjanya, sehingga tidak lebih baik daripada aplikasi terpusat. Jika model AI terbuka, maka penyerang dapat mengunduh dan mensimulasikannya secara lokal, dan mendesain serangan yang sangat dioptimalkan untuk mengelabui model tersebut, yang kemudian dapat diputar ulang di jaringan langsung.

Contoh pembelajaran mesin yang bersifat permusuhan. Sumber: researchgate.net

Sekarang, para pembaca blog ini (atau penghuni cryptoverse) mungkin sudah mendahului saya, dan berpikir: tapi tunggu dulu! Kami memiliki bukti pengetahuan nol yang mewah dan bentuk-bentuk kriptografi yang sangat keren. Tentunya kita dapat melakukan beberapa keajaiban kripto, dan menyembunyikan cara kerja model sehingga penyerang tidak dapat mengoptimalkan serangan, tetapi pada saat yang sama membuktikan bahwa model tersebut dieksekusi dengan benar, dan dibangun menggunakan proses pelatihan yang masuk akal pada sekumpulan data yang mendasarinya!

Biasanya, ini adalah jenis pemikiran yang saya anjurkan baik di blog ini maupun di tulisan-tulisan saya yang lain. Namun dalam kasus komputasi terkait AI, ada dua keberatan utama:

  1. Overhead kriptografi: jauh lebih tidak efisien untuk melakukan sesuatu di dalam SNARK (atau MPC atau...) dibandingkan dengan melakukannya secara "terang-terangan". Mengingat bahwa AI sudah sangat intensif secara komputasi, apakah melakukan AI di dalam kotak hitam kriptografi bahkan layak secara komputasi?
  2. Serangan pembelajaran mesin adversarial black-box: ada beberapa cara untuk mengoptimalkan serangan terhadap model AI bahkan tanpa mengetahui banyak hal tentang cara kerja internal model tersebut. Dan jika Anda menyembunyikan terlalu banyak, Anda berisiko membuatnya terlalu mudah bagi siapa pun yang memilih data pelatihan untuk merusak model dengan serangan peracunan.

Kedua hal ini merupakan lubang kelinci yang rumit, jadi mari kita bahas satu per satu.

Overhead kriptografi

Gadget kriptografi, terutama yang bertujuan umum seperti ZK-SNARK dan MPC, memiliki biaya yang tinggi. Sebuah blok Ethereum membutuhkan beberapa ratus milidetik untuk diverifikasi oleh klien secara langsung, tetapi menghasilkan ZK-SNARK untuk membuktikan kebenaran blok tersebut dapat memakan waktu berjam-jam. Overhead yang biasa terjadi pada gadget kriptografi lainnya, seperti MPC, bisa lebih buruk lagi. Komputasi AI sudah mahal: LLM yang paling kuat hanya dapat menghasilkan kata-kata yang sedikit lebih cepat daripada yang dapat dibaca oleh manusia, belum lagi biaya komputasi yang sering kali mencapai jutaan dolar untuk melatih model. Perbedaan kualitas antara model papan atas dan model yang mencoba menghemat lebih banyak biaya pelatihan atau jumlah parameter sangat besar. Sekilas, ini adalah alasan yang sangat bagus untuk mencurigai seluruh proyek yang mencoba menambahkan jaminan pada AI dengan membungkusnya dengan kriptografi.

Untungnya, AI adalah jenis komputasi yang sangat spesifik, yang membuatnya dapat menerima semua jenis pengoptimalan yang tidak dapat dimanfaatkan oleh jenis komputasi yang lebih "tidak terstruktur" seperti ZK-EVM. Mari kita periksa struktur dasar model AI:

Biasanya, model AI sebagian besar terdiri dari serangkaian perkalian matriks yang diselingi dengan operasi non-linear per elemen seperti fungsi ReLU) (y = max(x, 0)). Secara asimtotik, perkalian matriks membutuhkan sebagian besar pekerjaan: mengalikan dua matriks N*N membutuhkan waktu

�(�2.8)

waktu, sedangkan jumlah operasi non-linear jauh lebih kecil. Hal ini sangat nyaman untuk kriptografi, karena banyak bentuk kriptografi yang dapat melakukan operasi linear (yang merupakan perkalian matriks, setidaknya jika Anda mengenkripsi modelnya tetapi bukan inputnya) hampir "gratis".

Jika Anda adalah seorang kriptografer, Anda mungkin sudah pernah mendengar tentang fenomena yang sama dalam konteks enkripsi homomorfis: melakukan penambahan pada cipherteks terenkripsi sangatlah mudah, tetapi perkalian sangatlah sulit dan kami tidak menemukan cara untuk melakukannya dengan kedalaman yang tidak terbatas sampai tahun 2009.

Untuk ZK-SNARK, padanannya adalah protokol seperti ini dari tahun 2013, yang menunjukkan overhead kurang dari 4x dalam membuktikan perkalian matriks. Sayangnya, overhead pada lapisan non-linear masih tetap signifikan, dan implementasi terbaik dalam praktiknya menunjukkan overhead sekitar 200x. Namun ada harapan bahwa hal ini dapat dikurangi melalui penelitian lebih lanjut; lihat presentasi dari Ryan Cao ini untuk pendekatan terbaru berdasarkan GKR, dan penjelasan saya yang disederhanakan mengenai cara kerja komponen utama GKR.

Tetapi untuk banyak aplikasi, kami tidak hanya ingin membuktikan bahwa output AI dihitung dengan benar, kami juga ingin menyembunyikan modelnya. Ada pendekatan naif untuk hal ini: Anda bisa membagi modelnya sehingga sekumpulan server yang berbeda menyimpan setiap lapisan secara berlebihan, dan berharap beberapa server yang membocorkan beberapa lapisan tidak membocorkan terlalu banyak data. Tetapi ada juga bentuk komputasi multi-partai khusus yang sangat efektif.

Diagram yang disederhanakan dari salah satu pendekatan ini, menjaga model tetap privat tetapi membuat input menjadi publik. Jika kita ingin merahasiakan model dan inputnya, kita bisa melakukannya, meskipun akan menjadi sedikit lebih rumit: lihat halaman 8-9 makalah ini.

Dalam kedua kasus tersebut, moral dari cerita ini adalah sama: bagian terbesar dari komputasi AI adalah perkalian matriks, yang mana memungkinkan untuk membuat ZK-SNARK atau MPC yang sangat efisien (atau bahkan FHE), sehingga total overhead untuk meletakkan AI di dalam kotak kriptografi sangat rendah. Umumnya, lapisan non-linear yang menjadi hambatan terbesar meskipun ukurannya lebih kecil; mungkin teknik yang lebih baru seperti argumen pencarian dapat membantu.

Pembelajaran mesin adversarial black-box

Sekarang, mari kita bahas masalah besar lainnya: jenis-jenis serangan yang dapat Anda lakukan meskipun konten model dijaga kerahasiaannya dan Anda hanya memiliki "akses API" ke model tersebut. Mengutip sebuah makalah dari tahun 2016:

Banyak model pembelajaran mesin yang rentan terhadap contoh-contoh yang merugikan: input yang dibuat secara khusus untuk menyebabkan model pembelajaran mesin menghasilkan output yang salah. Contoh-contoh permusuhan yang memengaruhi satu model sering kali memengaruhi model lain, bahkan jika kedua model memiliki arsitektur yang berbeda atau dilatih pada set pelatihan yang berbeda, selama kedua model dilatih untuk melakukan tugas yang sama. Oleh karena itu, penyerang dapat melatih model pengganti mereka sendiri, membuat contoh permusuhan terhadap model pengganti, dan memindahkannya ke model korban, dengan informasi yang sangat sedikit tentang korban.

Gunakan akses kotak hitam ke "pengklasifikasi target" untuk melatih dan menyempurnakan "pengklasifikasi yang disimpulkan" yang disimpan secara lokal. Kemudian, secara lokal menghasilkan serangan yang dioptimalkan terhadap classifier yang disimpulkan. Ternyata serangan ini sering kali juga bekerja melawan pengklasifikasi target asli. Sumber diagram.

Secara potensial, Anda bahkan dapat membuat serangan dengan hanya mengetahui data pelatihan, bahkan jika Anda memiliki akses yang sangat terbatas atau tidak memiliki akses ke model yang Anda coba serang. Pada tahun 2023, serangan semacam ini terus menjadi masalah besar.

Untuk secara efektif membatasi serangan kotak hitam semacam ini, kita perlu melakukan dua hal:

  1. Benar-benar membatasi siapa atau apa yang dapat menanyakan model dan berapa banyak. Kotak hitam dengan akses API yang tidak dibatasi tidak aman; kotak hitam dengan akses API yang sangat terbatas mungkin aman.
  2. Menyembunyikan data pelatihan, sekaligus menjaga keyakinan bahwa proses yang digunakan untuk membuat data pelatihan tidak rusak.

Proyek yang paling banyak melakukan hal tersebut mungkin adalah Worldcoin, yang mana saya menganalisis versi sebelumnya (di antara protokol-protokol lainnya) secara panjang lebar di sini. Worldcoin menggunakan model AI secara ekstensif pada tingkat protokol, untuk (i) mengubah pemindaian iris mata menjadi "kode iris mata" pendek yang mudah dibandingkan untuk kemiripannya, dan (ii) memverifikasi bahwa objek yang dipindai adalah manusia. Pertahanan utama yang diandalkan oleh Worldcoin adalah fakta bahwa mereka tidak membiarkan siapa pun memanggil model AI begitu saja: melainkan menggunakan perangkat keras tepercaya untuk memastikan bahwa model tersebut hanya menerima input yang ditandatangani secara digital oleh kamera bola.

Pendekatan ini tidak dijamin berhasil: ternyata Anda dapat melakukan serangan musuh terhadap AI biometrik yang datang dalam bentuk tambalan fisik atau perhiasan yang dapat Anda kenakan di wajah Anda:

Kenakan benda tambahan di dahi Anda, dan hindari deteksi atau bahkan menyamar sebagai orang lain. Sumber.

Tetapi harapannya adalah jika Anda menggabungkan semua pertahanan bersama-sama, menyembunyikan model AI itu sendiri, sangat membatasi jumlah kueri, dan mengharuskan setiap kueri diautentikasi, Anda bisa menangkal serangan musuh yang cukup sulit sehingga sistem bisa aman. Dalam kasus Worldcoin, meningkatkan pertahanan lain ini juga dapat mengurangi ketergantungan mereka pada perangkat keras yang tepercaya, meningkatkan desentralisasi proyek.

Dan ini membawa kita ke bagian kedua: bagaimana kita bisa menyembunyikan data pelatihan? Di sinilah "DAO untuk mengatur AI secara demokratis" mungkin masuk akal: kita dapat membuat DAO on-chain yang mengatur proses siapa yang diizinkan untuk mengirimkan data pelatihan (dan pengesahan apa yang diperlukan pada data itu sendiri), siapa yang diizinkan untuk membuat kueri, dan berapa banyak, dan menggunakan teknik kriptografi seperti MPC untuk mengenkripsi seluruh jalur pembuatan dan menjalankan AI mulai dari input pelatihan masing-masing pengguna hingga ke output akhir dari setiap kueri. DAO ini secara bersamaan dapat memenuhi tujuan yang sangat populer yaitu memberikan kompensasi kepada orang-orang yang telah mengirimkan data.

Penting untuk menegaskan kembali bahwa rencana ini sangat ambisius, dan ada beberapa hal yang dapat membuat rencana ini tidak praktis:

  • Overhead kriptografi masih bisa menjadi terlalu tinggi untuk jenis arsitektur kotak-hitam ini untuk bersaing dengan pendekatan "percayalah" tradisional yang tertutup.
  • Bisa jadi tidak ada cara yang baik untuk membuat proses pengiriman data pelatihan terdesentralisasi dan terlindungi dari serangan peracunan.
  • Gadget komputasi multi-pihak dapat merusak jaminan keamanan atau privasi mereka karena para partisipan berkolusi: bagaimanapun juga, hal ini telah terjadi pada jembatan mata uang kripto lintas rantai berulang kali.

Salah satu alasan mengapa saya tidak memulai bagian ini dengan label peringatan merah besar bertuliskan "JANGAN MELAKUKAN PENILAIAN AI, ITU DYSTOPIAN", adalah karena masyarakat kita sudah sangat bergantung pada penilai AI yang tidak dapat dipertanggungjawabkan, yaitu algoritme yang menentukan jenis unggahan dan opini politik mana yang akan didorong dan tidak didorong, atau bahkan disensor, di media sosial. Saya pikir memperluas tren ini lebih jauh pada tahap ini adalah ide yang cukup buruk, tetapi saya tidak berpikir bahwa ada kemungkinan besar bahwa komunitas blockchain yang bereksperimen dengan AI lebih banyak akan menjadi hal yang berkontribusi untuk memperburuknya.

Faktanya, ada beberapa cara berisiko rendah yang cukup mendasar dimana teknologi kripto dapat membuat sistem tersentralisasi yang sudah ada menjadi lebih baik yang saya yakini. Salah satu teknik sederhana adalah AI terverifikasi dengan publikasi yang tertunda: ketika sebuah situs media sosial membuat peringkat postingan berbasis AI, situs tersebut dapat mempublikasikan ZK-SNARK yang membuktikan hash dari model yang menghasilkan peringkat tersebut. Situs ini dapat berkomitmen untuk mengungkapkan model AI-nya setelah, misalnya, penundaan selama satu tahun. Setelah model terungkap, pengguna dapat memeriksa hash untuk memverifikasi bahwa model yang benar telah dirilis, dan komunitas dapat menjalankan tes pada model untuk memverifikasi keadilannya. Penundaan publikasi akan memastikan bahwa pada saat model tersebut diungkapkan, model tersebut sudah ketinggalan zaman.

Jadi, dibandingkan dengan dunia yang tersentralisasi, pertanyaannya bukanlah apakah kita bisa melakukan yang lebih baik, tetapi seberapa banyak. Namun, untuk dunia yang terdesentralisasi, penting untuk berhati-hati: jika seseorang membangun, misalnya, pasar prediksi atau stablecoin yang menggunakan oracle AI, dan ternyata oracle tersebut dapat diserang, maka uang dalam jumlah yang sangat besar dapat hilang dalam sekejap.

AI sebagai tujuan permainan

Jika teknik-teknik di atas untuk membuat AI pribadi terdesentralisasi yang terukur, yang isinya adalah kotak hitam yang tidak diketahui oleh siapa pun, dapat benar-benar berfungsi, maka ini juga dapat digunakan untuk membuat AI dengan kegunaan yang melampaui blockchain. Tim protokol NEAR menjadikan hal ini sebagai tujuan utama dari pekerjaan mereka yang sedang berlangsung.

Ada dua alasan untuk melakukan hal ini:

  1. Jika Anda dapat membuat "AI black-box yang dapat dipercaya" dengan menjalankan proses pelatihan dan kesimpulan menggunakan beberapa kombinasi blockchain dan MPC, maka banyak aplikasi di mana pengguna khawatir tentang sistem yang bias atau menipu mereka dapat mengambil manfaat darinya. Banyak orang telah menyatakan keinginan untuk tata kelola yang demokratis atas AI yang secara sistemik penting yang akan kita andalkan; teknik berbasis kriptografi dan blockchain dapat menjadi jalan untuk melakukan hal tersebut.
  2. Dari perspektif keamanan AI, ini akan menjadi teknik untuk membuat AI terdesentralisasi yang juga memiliki tombol pemutus alami, dan yang dapat membatasi kueri yang berusaha menggunakan AI untuk perilaku jahat.

Perlu juga dicatat bahwa "menggunakan insentif kripto untuk mendorong pembuatan AI yang lebih baik" dapat dilakukan tanpa harus menggunakan kriptografi untuk mengenkripsinya secara menyeluruh: pendekatan seperti BitTensor termasuk dalam kategori ini.

Kesimpulan

Sekarang, setelah blockchain dan AI menjadi semakin kuat, ada semakin banyak kasus penggunaan di persimpangan kedua area tersebut. Namun, beberapa kasus penggunaan ini jauh lebih masuk akal dan jauh lebih kuat daripada yang lain. Secara umum, kasus penggunaan di mana mekanisme yang mendasari terus dirancang secara kasar seperti sebelumnya, tetapi masing-masing pemain menjadi AI, yang memungkinkan mekanisme beroperasi secara efektif pada skala yang jauh lebih mikro, adalah yang paling menjanjikan dan paling mudah dilakukan.

Yang paling menantang untuk dilakukan dengan benar adalah aplikasi yang mencoba menggunakan blockchain dan teknik kriptografi untuk membuat "singleton": satu AI tepercaya terdesentralisasi yang dapat diandalkan oleh beberapa aplikasi untuk beberapa tujuan. Aplikasi-aplikasi ini menjanjikan, baik untuk fungsionalitas maupun untuk meningkatkan keamanan AI dengan cara menghindari risiko sentralisasi yang terkait dengan pendekatan yang lebih umum untuk masalah tersebut. Namun, ada banyak cara di mana asumsi-asumsi yang mendasarinya bisa gagal; oleh karena itu, perlu berhati-hati, terutama ketika menerapkan aplikasi ini dalam konteks bernilai tinggi dan berisiko tinggi.

Saya berharap dapat melihat lebih banyak upaya dalam kasus penggunaan AI yang konstruktif di semua bidang ini, sehingga kita dapat melihat mana yang benar-benar layak dalam skala besar.

Penafian: Penafian

  1. Artikel ini dicetak ulang dari[vitalik]. Semua hak cipta adalah milik penulis asli[vitalik]. Jika ada keberatan dengan pencetakan ulang ini, silakan hubungi tim Gate Learn, dan mereka akan segera menanganinya.
  2. Penafian Tanggung Jawab: Pandangan dan pendapat yang diungkapkan dalam artikel ini semata-mata merupakan pandangan dan pendapat penulis dan bukan merupakan saran investasi.
  3. Penerjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel terjemahan dilarang.
Bắt đầu giao dịch
Đăng ký và giao dịch để nhận phần thưởng USDTEST trị giá
$100
$5500
Tạo tài khoản