La promesa y los desafíos de las aplicaciones criptográficas + de IA

AvanzadoFeb 08, 2024
Este artículo explora la intersección de las criptomonedas y la inteligencia artificial, incluida la forma en que las criptomonedas descentralizadas equilibran la inteligencia artificial centralizada. La IA puede ayudar a identificar información falsa y comportamientos fraudulentos, pero se debe tener cuidado para evitar el abuso de poder. La IA también puede formar parte de las interfaces y reglas de los juegos, pero hay que tener en cuenta los retos del aprendizaje automático adversario.
La promesa y los desafíos de las aplicaciones criptográficas + de IA

Un agradecimiento especial a los equipos de Worldcoin y Modulus Labs, Xinyuan Sun, Martin Koeppelmann e Illia Polosukhin por sus comentarios y discusión.

A lo largo de los años, muchas personas me han hecho una pregunta similar: ¿cuáles son las intersecciones entre las criptomonedas y la IA que considero más fructíferas? Es una pregunta razonable: las criptomonedas y la IA son las dos principales tendencias tecnológicas profundas (de software) de la última década, y parece que debe haber algún tipo de conexión entre ambas. Es fácil encontrar sinergias a un nivel superficial: la descentralización de las criptomonedas puede equilibrar la centralización de la IA, la IA es opaca y las criptomonedas aportan transparencia, la IA necesita datos y las cadenas de bloques son buenas para almacenar y rastrear datos. Pero a lo largo de los años, cuando la gente me pedía que profundizara un nivel y hablara sobre aplicaciones específicas, mi respuesta ha sido decepcionante: "sí, hay algunas cosas, pero no tantas".

En los últimos tres años, con el auge de una IA mucho más potente en forma de LLM modernos, y el auge de criptomonedas mucho más potentes en forma no sólo de soluciones de escalado de blockchain, sino también de ZKP, FHE, MPC(bipartidista y de N-partitas), estoy empezando a ver este cambio. De hecho, hay algunas aplicaciones prometedoras de la IA dentro de los ecosistemas de blockchain, o la IA junto con la criptografía, aunque es importante tener cuidado con la forma en que se aplica la IA. Un desafío particular es: en criptografía, el código abierto es la única forma de hacer que algo sea realmente seguro, pero en IA, un modelo (o incluso sus datos de entrenamiento) que sean abiertos aumenta en gran medida su vulnerabilidad a los ataques de aprendizaje automático adversarios . Esta publicación repasará una clasificación de las diferentes formas en que las criptomonedas + IA podrían cruzarse, y las perspectivas y desafíos de cada categoría.

Un resumen de alto nivel de las intersecciones de cripto+IA de una publicación de blog de uETH. Pero, ¿qué se necesita para realizar alguna de estas sinergias en una aplicación concreta?

Las cuatro categorías principales

La IA es un concepto muy amplio: se puede pensar en la "IA" como el conjunto de algoritmos que se crean no especificándolos explícitamente, sino más bien agitando una gran sopa computacional y ejerciendo algún tipo de presión de optimización que empuje la sopa hacia la producción de algoritmos con las propiedades que se desean. Esta descripción definitivamente no debe tomarse con desdén: ¡incluye el proceso que nos creó a los humanos en primer lugar! Pero sí significa que los algoritmos de IA tienen algunas propiedades comunes: su capacidad para hacer cosas que son extremadamente poderosas, junto con límites en nuestra capacidad para saber o comprender lo que está sucediendo bajo el capó.

Hay muchas formas de categorizar la IA; para los fines de esta publicación, que habla sobre las interacciones entre la IA y las cadenas de bloques (que se han descrito como una plataforma para <a href="https://medium.com/@virgilgr/ethereum-is-game-changing-technology-literally-d67e01a01cf8">creando "juegos"), lo categorizaré de la siguiente manera:

  • La IA como jugador en un juego [mayor viabilidad]: IA que participan en mecanismos en los que la fuente última de los incentivos proviene de un protocolo con aportaciones humanas.
  • La IA como interfaz para el juego [alto potencial, pero con riesgos]: IA que ayudan a los usuarios a comprender el mundo criptográfico que los rodea y a garantizar que su comportamiento (p. ej. mensajes y transacciones firmados) coincide con sus intenciones y no son engañados ni estafados.
  • La IA como reglas del juego [pisa con mucho cuidado]: blockchains, DAO y mecanismos similares que llaman directamente a las IA. Piensa, por ejemplo. "Jueces de IA"
  • La IA como objetivo del juego [a largo plazo pero intrigante]: diseñar blockchains, DAO y mecanismos similares con el objetivo de construir y mantener una IA que pueda utilizarse para otros fines, utilizando los bits criptográficos para incentivar mejor la formación o para evitar que la IA filtre datos privados o se utilice indebidamente.

Vamos a repasarlos uno por uno.

La IA como jugador en un juego

En realidad, esta es una categoría que ha existido durante casi una década, al menos desde que los exchanges descentralizados (DEX) en cadena comenzaron a tener un uso significativo. Cada vez que hay un intercambio, existe la oportunidad de ganar dinero a través del arbitraje, y los bots pueden arbitrar mucho mejor que los humanos. Este caso de uso ha existido durante mucho tiempo, incluso con IA mucho más simples que las que tenemos hoy, pero en última instancia es una intersección muy real de IA + cripto. Más recientemente, hemos visto bots de arbitraje MEV que a menudo se explotan entre sí. Cada vez que tenga una aplicación de cadena de bloques que implique subastas o comercio, tendrá bots de arbitraje.

Pero los bots de arbitraje de IA son solo el primer ejemplo de una categoría mucho más grande, que espero que pronto comience a incluir muchas otras aplicaciones. Conozca AIOmen, una demostración de un mercado de predicción en el que las IA son protagonistas:

Los mercados de predicción han sido el santo grial de la tecnología epistémica durante mucho tiempo; En 2014 me entusiasmó la idea de utilizar los mercados de predicción como insumo para la gobernanza ("futarquía"), y jugué mucho con ellos en las últimas elecciones, así como más recientemente. Pero hasta ahora los mercados de predicción no han despegado demasiado en la práctica, y hay una serie de razones comúnmente dadas para ello: los participantes más grandes suelen ser irracionales, las personas con los conocimientos adecuados no están dispuestas a tomarse el tiempo y apostar a menos que haya mucho dinero de por medio, los mercados suelen ser escasos, etc.

Una respuesta a esto es señalar las mejoras continuas de UX en Polymarket u otros nuevos mercados de predicción, y esperar que tengan éxito donde las iteraciones anteriores han fracasado. Después de todo, cuenta la historia, la gente está dispuesta a apostar decenas de miles de millones en deportes, así que ¿por qué la gente no iba a invertir suficiente dinero apostando en las elecciones de Estados Unidos o en LK99 para que empiece a tener sentido que empiecen a llegar los jugadores serios? Pero este argumento debe lidiar con el hecho de que, bueno, las iteraciones anteriores no han logrado llegar a este nivel de escala (al menos en comparación con los sueños de sus defensores), por lo que parece que se necesita algo nuevo para que los mercados de predicción tengan éxito. Por lo tanto, una respuesta diferente es señalar una característica específica de los ecosistemas de mercado de predicción que podemos esperar ver en la década de 2020 y que no vimos en la década de 2010: la posibilidad de una participación ubicua de las IA.

Las IA están dispuestas a trabajar por menos de 1 dólar la hora y tienen el conocimiento de una enciclopedia, y si eso no es suficiente, incluso pueden integrarse con la capacidad de búsqueda web en tiempo real. Si creas un mercado y pones un subsidio de liquidez de 50 dólares, a los humanos no les importará lo suficiente como para pujar, pero miles de IA pulularán fácilmente por todas partes y harán la mejor conjetura que puedan. El incentivo para hacer un buen trabajo en cualquier pregunta puede ser pequeño, pero el incentivo para hacer una IA que haga buenas predicciones en general puede ser de millones. Ten en cuenta que, potencialmente, ni siquiera necesitas a los humanos para resolver la mayoría de las preguntas: puedes usar un sistema de disputa de varias rondas similar a Augur o Kleros, donde las IA también serían las que participarían en rondas anteriores. Los seres humanos sólo tendrían que responder en aquellos pocos casos en los que se hayan producido una serie de escaladas y se hayan comprometido grandes cantidades de dinero por ambas partes.

Esta es una primitiva poderosa, porque una vez que se puede hacer que un "mercado de predicción" funcione a una escala tan microscópica, puede reutilizar la primitiva del "mercado de predicción" para muchos otros tipos de preguntas:

  • ¿Es aceptable esta publicación en las redes sociales según [términos de uso]?
  • ¿Qué pasará con el precio de la acción X (ej. ver Numerai)
  • ¿Esta cuenta que actualmente me está enviando mensajes es realmente Elon Musk?
  • ¿Es aceptable este envío de trabajo en un mercado de tareas en línea?
  • ¿Es la dapp en https://examplefinance.network una estafa?
  • Es 0x1b54....98c3 en realidad la dirección del token ERC20 "Casinu Inu"?

Puedes notar que muchas de estas ideas van en la dirección de lo que llamé "defensa de la información" en mis escritos sobre "d/acc". En términos generales, la pregunta es: ¿cómo ayudamos a los usuarios a diferenciar la información verdadera de la falsa y a detectar estafas, sin facultar a una autoridad centralizada para decidir lo correcto y lo incorrecto que luego podría abusar de esa posición? A nivel micro, la respuesta puede ser "IA". Pero a nivel macro, la pregunta es: ¿quién construye la IA? La IA es un reflejo del proceso que la creó y, por lo tanto, no puede evitar tener sesgos. Por lo tanto, existe la necesidad de un juego de nivel superior que juzgue qué tan bien lo están haciendo las diferentes IA, donde las IA puedan participar como jugadores en el juego.

Este uso de la IA, en el que las IA participan en un mecanismo en el que en última instancia son recompensadas o penalizadas (probabilísticamente) por un mecanismo en cadena que recopila aportaciones de los humanos (¿lo llaman RLHF descentralizado basado en el mercado?), es algo que creo que realmente vale la pena investigar. Ahora es el momento adecuado para investigar más casos de uso como este, porque el escalado de blockchain finalmente está teniendo éxito, lo que hace que cualquier cosa "micro" finalmente sea viable en la cadena cuando a menudo no lo era antes.

Una categoría relacionada de aplicaciones va en la dirección de agentes altamente autónomos que utilizan cadenas de bloques para cooperar mejor, ya sea a través de pagos o mediante el uso de contratos inteligentes para hacer compromisos creíbles.

La IA como interfaz para el juego

Una idea que mencioné en mis escritos es la idea de que existe una oportunidad de mercado para escribir software orientado al usuario que proteja los intereses de los usuarios al interpretar e identificar los peligros en el mundo en línea por el que navega el usuario. Un ejemplo ya existente de esto es la función de detección de estafas de Metamask:

Otro ejemplo es la función de simulación de la billetera Rabby , que muestra al usuario las consecuencias esperadas de la transacción que está a punto de firmar.

Rabby explicándome las consecuencias de firmar una transacción para intercambiar todo mi "BITCOIN" (el ticker de una memecoin ERC20 cuyo nombre completo es aparentemente "HarryPotterObamaSonic10Inu") por ETH.

Edición 2024.02.02: una versión anterior de esta publicación se refería a este token como una estafa que intentaba hacerse pasar por bitcoin. No lo es; Es una memecoin. Disculpas por la confusión.

Potencialmente, este tipo de herramientas podrían estar supercargadas con IA. La IA podría dar una explicación mucho más rica y amigable para los humanos de en qué tipo de dapp está participando, las consecuencias de operaciones más complicadas que está firmando, si un token en particular es genuino o no (p. ej. BITCOIN no es solo una cadena de caracteres, normalmente es el nombre de una criptomoneda importante, que no es un token ERC20 y que tiene un precio muy superior a $ 0.045, y un LLM moderno lo sabría), y así sucesivamente. Hay proyectos que están empezando a ir en esta dirección (por ejemplo, la billetera LangChain, que utiliza la IA como interfaz principal). Mi opinión personal es que las interfaces de IA pura son probablemente demasiado arriesgadas en este momento, ya que aumentan el riesgo de otro tipo de errores, pero la IA que complementa una interfaz más convencional se está volviendo muy viable.

Hay un riesgo particular que vale la pena mencionar. Profundizaré en esto en la sección sobre "IA como reglas del juego" a continuación, pero el problema general es el aprendizaje automático adversario: si un usuario tiene acceso a un asistente de IA dentro de una billetera de código abierto, los malos también tendrán acceso a ese asistente de IA y, por lo tanto, tendrán oportunidades ilimitadas de optimizar sus estafas para no activar las defensas de esa billetera. Todas las IA modernas tienen errores en alguna parte, y no es demasiado difícil para un proceso de entrenamiento, incluso uno con acceso limitado al modelo, encontrarlos.

Aquí es donde las "IA que participan en micromercados on-chain" funcionan mejor: cada IA individual es vulnerable a los mismos riesgos, pero se está creando intencionadamente un ecosistema abierto de docenas de personas que las iteran y mejoran constantemente de forma continua. Además, cada IA individual es cerrada: la seguridad del sistema proviene de la apertura de las reglas del juego, no del funcionamiento interno de cada jugador.

Resumen: La IA puede ayudar a los usuarios a comprender lo que está sucediendo en un lenguaje sencillo, puede servir como un tutor en tiempo real, puede proteger a los usuarios de errores, pero tenga cuidado cuando intente usarla directamente contra desinformadores y estafadores maliciosos.

La IA como reglas del juego

Ahora, llegamos a la aplicación que entusiasma a mucha gente, pero que creo que es la más arriesgada, y en la que tenemos que andar con más cuidado: lo que yo llamo que las IA forman parte de las reglas del juego. Esto se relaciona con el entusiasmo entre las élites políticas convencionales sobre los "jueces de IA" (p. ej. ver este artículo en el sitio web de la "Cumbre Mundial de Gobierno"), y hay análogos de estos deseos en las aplicaciones de blockchain. Si un contrato inteligente basado en blockchain o una DAO necesita tomar una decisión subjetiva (por ejemplo, ¿es aceptable un producto de trabajo en particular en un contrato de trabajo por encargo? ¿Cuál es la interpretación correcta de una constitución de lenguaje natural como la Ley del Optimismo de las Cadenas?), ¿podrías hacer que una IA simplemente forme parte del contrato o DAO para ayudar a hacer cumplir estas reglas?

Aquí es donde el aprendizaje automático adversario va a ser un desafío extremadamente difícil. El argumento básico de dos oraciones es el siguiente:

Si un modelo de IA que desempeña un papel clave en un mecanismo está cerrado, no se puede verificar su funcionamiento interno, por lo que no es mejor que una aplicación centralizada. Si el modelo de IA está abierto, un atacante puede descargarlo y simularlo localmente, y diseñar ataques muy optimizados para engañar al modelo, que luego puede reproducir en la red en vivo.

Ejemplo de aprendizaje automático adversario. Fuente: researchgate.net

Ahora, los lectores frecuentes de este blog (o los habitantes del criptoverso) ya podrían estar adelantándose a mí y pensando: ¡pero espera! Tenemos pruebas de conocimiento cero y otras formas realmente geniales de criptografía. Seguramente podemos hacer algo de criptomagia y ocultar el funcionamiento interno del modelo para que los atacantes no puedan optimizar los ataques, pero al mismo tiempo demostrar que el modelo se está ejecutando correctamente y que se construyó utilizando un proceso de entrenamiento razonable sobre un conjunto razonable de datos subyacentes.

Normalmente, este es exactamente el tipo de pensamiento que defiendo tanto en este blog como en mis otros escritos. Pero en el caso de la computación relacionada con la IA, hay dos objeciones principales:

  1. Sobrecarga criptográfica: es mucho menos eficiente hacer algo dentro de un SNARK (o MPC o...) que hacerlo "sin cifrar". Dado que la IA ya es muy intensiva desde el punto de vista computacional, ¿es viable computacionalmente hacer IA dentro de cajas negras criptográficas?
  2. Ataques de aprendizaje automático adversarios de caja negra: hay formas de optimizar los ataques contra modelos de IA incluso sin saber mucho sobre el funcionamiento interno del modelo. Y si oculta demasiado, corre el riesgo de que sea demasiado fácil para quien elija los datos de entrenamiento corromper el modelo con ataques de envenenamiento.

Ambas son madrigueras complicadas, así que entremos en cada una de ellas por separado.

Sobrecarga criptográfica

Los gadgets criptográficos, especialmente los de uso general como ZK-SNARK y MPC, tienen una gran sobrecarga. Un bloque de Ethereum tarda unos cientos de milisegundos en verificarlo directamente, pero generar un ZK-SNARK para demostrar la exactitud de dicho bloque puede llevar horas. La sobrecarga típica de otros dispositivos criptográficos, como MPC, puede ser aún peor. La computación de IA ya es costosa: los LLM más potentes pueden producir palabras individuales solo un poco más rápido de lo que los seres humanos pueden leerlas, sin mencionar los costos computacionales a menudo multimillonarios de entrenar los modelos. La diferencia de calidad entre los modelos de primer nivel y los modelos que intentan economizar mucho más en el costo de entrenamiento o el recuento de parámetros es grande. A primera vista, esta es una muy buena razón para sospechar de todo el proyecto de tratar de agregar garantías a la IA envolviéndola en criptografía.

Afortunadamente, sin embargo, la IA es un tipo de computación muy específico, lo que la hace susceptible a todo tipo de optimizaciones de las que no se pueden beneficiar tipos de computación más "no estructurados", como las ZK-EVM. Examinemos la estructura básica de un modelo de IA:

Por lo general, un modelo de IA consiste principalmente en una serie de multiplicaciones de matrices intercaladas con operaciones no lineales por elemento, como la función ReLU)(y = max(x, 0)). Asintóticamente, las multiplicaciones de matrices ocupan la mayor parte del trabajo: multiplicar dos matrices N*N requiere

( 2.8)

tiempo, mientras que el número de operaciones no lineales es mucho menor. Esto es realmente conveniente para la criptografía, porque muchas formas de criptografía pueden hacer operaciones lineales (que son las multiplicaciones de matrices, al menos si se cifra el modelo pero no las entradas) casi "gratis".

Si eres criptógrafo, probablemente ya hayas oído hablar de un fenómeno similar en el contexto de la encriptación homomórfica: realizar adiciones en textos cifrados es realmente fácil, pero las multiplicaciones son increíblemente difíciles y no descubrimos ninguna forma de hacerlo con profundidad ilimitada hasta 2009.

En el caso de los ZK-SNARK, el equivalente son protocolos como este de 2013, que muestran una sobrecarga inferior a 4 veces en la prueba de multiplicaciones de matrices. Desafortunadamente, la sobrecarga en las capas no lineales aún termina siendo significativa, y las mejores implementaciones en la práctica muestran una sobrecarga de alrededor de 200x. Pero existe la esperanza de que esto pueda reducirse en gran medida a través de más investigaciones; vea esta presentación de Ryan Cao para un enfoque reciente basado en GKR, y mi propia explicación simplificada de cómo funciona el componente principal de GKR.

Pero para muchas aplicaciones, no solo queremos demostrar que una salida de IA se calculó correctamente, sino que también queremos ocultar el modelo. Hay enfoques ingenuos para esto: puede dividir el modelo para que un conjunto diferente de servidores almacene de forma redundante cada capa y esperar que algunos de los servidores que filtran algunas de las capas no filtren demasiados datos. Pero también hay formas sorprendentemente efectivas de computación multipartita especializada.

Un diagrama simplificado de uno de estos enfoques, manteniendo el modelo privado pero haciendo públicas las entradas. Si queremos mantener el modelo y las entradas en privado, podemos hacerlo, aunque se vuelve un poco más complicado: ver páginas 8-9 del artículo.

En ambos casos, la moraleja de la historia es la misma: la mayor parte de un cálculo de IA son las multiplicaciones de matrices, para las que es posible hacer ZK-SNARKs o MPCs muy eficientes (o incluso FHE), por lo que la sobrecarga total de poner la IA dentro de cajas criptográficas es sorprendentemente baja. Generalmente, son las capas no lineales las que son el mayor cuello de botella a pesar de su menor tamaño; Tal vez las técnicas más nuevas, como los argumentos de búsqueda , puedan ayudar.

Aprendizaje automático adversario de caja negra

Ahora, vayamos al otro gran problema: los tipos de ataques que se pueden hacer incluso si el contenido del modelo se mantiene privado y sólo se tiene "acceso a la API" del modelo. Citando un artículo de 2016:

Muchos modelos de aprendizaje automático son vulnerables a ejemplos antagónicos: entradas que están especialmente diseñadas para hacer que un modelo de aprendizaje automático produzca una salida incorrecta. Los ejemplos antagónicos que afectan a un modelo a menudo afectan a otro modelo, incluso si los dos modelos tienen arquitecturas diferentes o se entrenaron en conjuntos de entrenamiento diferentes, siempre que ambos modelos se entrenaron para realizar la misma tarea. Por lo tanto, un atacante puede entrenar su propio modelo sustituto, crear ejemplos antagónicos contra el sustituto y transferirlos a un modelo de víctima, con muy poca información sobre la víctima.

Utilice el acceso de caja negra a un "clasificador de destino" para entrenar y refinar su propio "clasificador inferido" almacenado localmente. A continuación, genere localmente ataques optimizados contra el clasificador inferido. Resulta que estos ataques a menudo también funcionarán contra el clasificador de objetivos original. Origen del diagrama.

Potencialmente, incluso puede crear ataques conociendo solo los datos de entrenamiento, incluso si tiene un acceso muy limitado o nulo al modelo que está tratando de atacar. A partir de 2023, este tipo de ataques siguen siendo un gran problema.

Para reducir eficazmente este tipo de ataques de caja negra, tenemos que hacer dos cosas:

  1. Limite realmente quién o qué puede consultar el modelo y cuánto. Las cajas negras con acceso a la API sin restricciones no son seguras; Las cajas negras con acceso a la API muy restringido pueden ser.
  2. Oculte los datos de entrenamiento, a la vez que conserva la confianza de que el proceso utilizado para crear los datos de entrenamiento no está dañado.

El proyecto que más ha hecho sobre el primero es quizás Worldcoin, del que analizo una versión anterior (entre otros protocolos) en profundidad aquí. Worldcoin utiliza ampliamente modelos de IA a nivel de protocolo, para (i) convertir los escaneos de iris en "códigos de iris" cortos que sean fáciles de comparar en cuanto a similitud, y (ii) verificar que lo que está escaneando es realmente un ser humano. La principal defensa en la que se basa Worldcoin es el hecho de que no permite que nadie simplemente llame al modelo de IA: más bien, utiliza hardware de confianza para garantizar que el modelo solo acepte entradas firmadas digitalmente por la cámara del orbe.

No se garantiza que este enfoque funcione: resulta que puedes realizar ataques adversarios contra la IA biométrica que vienen en forma de parches físicos o joyas que puedes ponerte en la cara:

Usa algo extra en la frente y evita ser detectado o incluso hazte pasar por otra persona. Fuente.

Pero la esperanza es que si se combinan todas las defensas, ocultando el propio modelo de IA, limitando en gran medida el número de consultas y exigiendo que cada consulta se autentique de alguna manera, se pueden realizar ataques adversarios lo suficientemente difíciles como para que el sistema pueda ser seguro. En el caso de Worldcoin, el aumento de estas otras defensas también podría reducir su dependencia de hardware confiable, aumentando la descentralización del proyecto.

Y esto nos lleva a la segunda parte: ¿cómo podemos ocultar los datos de entrenamiento? Aquí es donde "las DAO gobiernan democráticamente la IA" podrían tener sentido: podemos crear una DAO en cadena que gobierne el proceso de quién puede enviar datos de entrenamiento (y qué certificaciones se requieren en los datos en sí), quién puede hacer consultas y cuántas, y usar técnicas criptográficas como MPC para cifrar todo el proceso de creación y ejecución de la IA desde la entrada de entrenamiento de cada usuario individual hasta El resultado final de cada consulta. Esta DAO podría satisfacer simultáneamente el objetivo muy popular de compensar a las personas por enviar datos.

Es importante reafirmar que este plan es súper ambicioso y que hay varias formas en las que podría resultar poco práctico:

  • La sobrecarga criptográfica aún podría resultar demasiado alta para que este tipo de arquitectura de caja negra sea competitiva con los enfoques tradicionales cerrados de "confía en mí".
  • Podría resultar que no haya una buena manera de hacer que el proceso de envío de datos de entrenamiento esté descentralizado y protegido contra ataques de envenenamiento.
  • Los dispositivos informáticos multipartitos podrían romper sus garantías de seguridad o privacidad debido a la colusión de los participantes: después de todo, esto ha sucedido con los puentes de criptomonedas entre cadenas una y otra vez.

Una de las razones por las que no comencé esta sección con más grandes etiquetas rojas de advertencia que dijeran "NO HAGAS JUECES DE IA, ESO ES DISTÓPICO", es que nuestra sociedad ya depende en gran medida de jueces de IA centralizados que no rinden cuentas: los algoritmos que determinan qué tipo de publicaciones y opiniones políticas se impulsan y desimpulsan, o incluso censuran, en las redes sociales. Creo que expandir aún más esta tendencia en esta etapa es una mala idea, pero no creo que haya una gran posibilidad de que la comunidad blockchain que experimente más con IA sea lo que contribuya a empeorar las cosas.

De hecho, hay algunas formas bastante básicas y de bajo riesgo en las que la tecnología criptográfica puede mejorar incluso estos sistemas centralizados existentes en las que confío bastante. Una técnica simple es la IA verificada con publicación diferida: cuando un sitio de redes sociales hace una clasificación de publicaciones basada en IA, podría publicar un ZK-SNARK que demuestre el hash del modelo que generó esa clasificación. El sitio podría comprometerse a revelar sus modelos de IA después de, por ejemplo. un año de retraso. Una vez que se revela un modelo, los usuarios pueden verificar el hash para verificar que se lanzó el modelo correcto, y la comunidad podría realizar pruebas en el modelo para verificar su imparcialidad. El retraso en la publicación garantizaría que, cuando se revele el modelo, ya esté desactualizado.

Entonces, en comparación con el mundo centralizado, la pregunta no es si podemos hacerlo mejor, sino cuánto. Para el mundo descentralizado, sin embargo, es importante tener cuidado: si alguien construye, por ejemplo. un mercado de predicción o una stablecoin que utiliza un oráculo de IA, y resulta que el oráculo es atacable, eso es una enorme cantidad de dinero que podría desaparecer en un instante.

La IA como objetivo del juego

Si las técnicas anteriores para crear una IA privada descentralizada escalable, cuyo contenido es una caja negra desconocida para nadie, pueden funcionar realmente, entonces esto también podría usarse para crear IA con una utilidad que vaya más allá de las cadenas de bloques. El equipo de protocolo de NEAR está haciendo de esto un objetivo central de su trabajo en curso.

Hay dos razones para hacer esto:

  1. Si puede crear "IA de caja negra confiables" ejecutando el proceso de entrenamiento e inferencia utilizando alguna combinación de cadenas de bloques y MPC, entonces muchas aplicaciones en las que los usuarios están preocupados de que el sistema esté sesgado o los engañe podrían beneficiarse de ello. Muchas personas han expresado su deseo de una gobernanza democrática de las IA de importancia sistémica de las que dependeremos; Las técnicas criptográficas y basadas en blockchain podrían ser un camino para lograrlo.
  2. Desde el punto de vista de la seguridad de la IA, esta sería una técnica para crear una IA descentralizada que también tenga un interruptor de apagado natural, y que podría limitar las consultas que buscan utilizar la IA para comportamientos maliciosos.

También vale la pena señalar que "el uso de incentivos criptográficos para incentivar la creación de una mejor IA" se puede hacer sin caer también en la madriguera completa del uso de la criptografía para cifrarla por completo: enfoques como BitTensor entran en esta categoría.

Conclusiones

Ahora que tanto las cadenas de bloques como las IA son cada vez más poderosas, hay un número creciente de casos de uso en la intersección de las dos áreas. Sin embargo, algunos de estos casos de uso tienen mucho más sentido y son mucho más robustos que otros. En general, los casos de uso en los que el mecanismo subyacente sigue diseñándose más o menos como antes, pero los actores individuales se convierten en IA, lo que permite que el mecanismo funcione eficazmente a una escala mucho más micro, son los más prometedores de inmediato y los más fáciles de hacer bien.

Lo más difícil de hacer bien son las aplicaciones que intentan utilizar cadenas de bloques y técnicas criptográficas para crear un "singleton": una única IA de confianza descentralizada en la que alguna aplicación se basaría para algún propósito. Estas aplicaciones son prometedoras, tanto para la funcionalidad como para mejorar la seguridad de la IA de una manera que evita los riesgos de centralización asociados con los enfoques más convencionales de ese problema. Pero también hay muchas formas en las que los supuestos subyacentes podrían fallar; Por lo tanto, vale la pena andar con cuidado, especialmente cuando se implementan estas aplicaciones en contextos de alto valor y alto riesgo.

Espero ver más intentos de casos de uso constructivos de IA en todas estas áreas, para que podamos ver cuáles de ellas son realmente viables a escala.

Renuncia:

  1. Este artículo es una reimpresión de [vitalik]. Todos los derechos de autor pertenecen al autor original [vitalik]. Si hay objeciones a esta reimpresión, comuníquese con el equipo de Gate Learn y ellos lo manejarán de inmediato.
  2. Descargo de responsabilidad: Los puntos de vista y opiniones expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.
Lancez-vous
Inscrivez-vous et obtenez un bon de
100$
!
Créer un compte