Una visión para la IA descentralizada


La IA descentralizada es un paradigma en el que se puede entrenar previamente un modelo generativo a través de un mecanismo de incentivos en una gran supercomputadora de IA distribuida. Mientras que una comunidad de código abierto nutre el modelo de IA. Y un libro mayor de verificación de identidad descentralizado. Los dispositivos de hardware disponibles en el mercado con chips optimizados para ML pueden actuar como motores distribuidos en tiempo real para que los usuarios entreguen contenido hiperpersonalizado sin tener que abandonar el dispositivo del usuario.

Supercomputadora de IA distribuida

Una supercomputadora de IA distribuida puede servir como base para permitir el entrenamiento previo del gran modelo generativo.

Cuanto más profundizamos en las capacidades adicionales de estas supercomputadoras de IA, más podemos estar seguros de que estas supercomputadoras de IA requerirán una enorme cantidad de poder de procesamiento para funcionar (a menos que cambiemos el paradigma).

En este caso, una supercomputadora de IA descentralizada serviría como base para desarrollar y mejorar estos grandes modelos generativos.

Mecanismo de incentivo para computadoras en la red.

Por supuesto, para que la supercomputadora funcione a escala, es posible que deba haber un mecanismo de incentivo para que estas computadoras distribuidas sigan brindando esta potencia informática.

En ese sentido, una arquitectura de fichas podría ayudar a dar forma a esto.

Por lo tanto, mecanismos como la cadena de bloques podrían ayudar.

Comunidad y modelo de IA de código abierto

Una vez lanzado al público, el modelo se convertirá en código abierto y será desarrollado por una comunidad de desarrolladores principales.

Y una comunidad suelta de otros desarrolladores que apoyarán este desarrollo de vez en cuando.

Al igual que otros proyectos de código abierto como Linux, Mozilla, WordPress, Wikipedia, etc., puede haber una empresa que administre el equipo central de desarrollo y una fundación que sea propietaria del proyecto de código abierto y dirija la empresa que ejecuta ese proyecto de código abierto. monetizar el esfuerzo a través de servicios empresariales basados ​​en el software de código abierto.

Verificación de identidad en un libro mayor descentralizado

Un problema clave a resolver aquí es la verificación de identidad y un libro mayor descentralizado que permite a los usuarios ingresar y generar sus datos para exponer los motores de IA en tiempo real de vez en cuando.

Arquitectura de chip optimizada para modelos ML

En este sentido, los fabricantes de hardware como Apple (pero con el tiempo todos lo harán) que optimizan sus dispositivos para modelos ML se están convirtiendo en dispositivos descentralizados que pueden contextualizar y entregar contenido sobre la marcha.

El propio dispositivo se convierte en el servidor en el que se almacenan los datos personales.

Motores en tiempo real implementados en los dispositivos de los usuarios

Para recapitular el flujo de trabajo:

  • Los modelos de IA se entrenan de antemano en computadoras descentralizadas.
  • Una vez que el modelo de IA generativa se publique como fuente abierta, será mantenido por una comunidad de desarrolladores y estará disponible para que cualquiera lo descargue.
  • El modelo de código abierto se adapta a la implementación de numerosas aplicaciones.
  • Estas aplicaciones, a través de un libro mayor de verificación de identidad descentralizado, permiten a los usuarios extraer datos dentro y fuera de estos modelos en función del consumo.
  • El dispositivo de hardware optimizado para la entrega de ML (como el iPhone) se convierte en un motor en tiempo real capaz de entregar contenido hiperpersonalizado sobre la marcha.
  • El usuario puede disfrutar de experiencias hiperpersonalizadas sin tener que revelar los datos almacenados en el dispositivo, que actúa como base de datos.

Análisis del modelo de negocio en red

Inteligencia artificial de borde

Inteligencia artificial de borde
La inteligencia artificial perimetral (Edge AI) combina inteligencia artificial y computación perimetral para crear flujos de trabajo de IA que van desde el centro de datos central hasta el perímetro de la red. El marco de Edge Artificial Intelligence es emocionante en el contexto de la IA, donde los grandes modelos generativos pueden aprender el contexto del usuario sobre la marcha, ya que pueden acceder a los datos del usuario a través del hardware sin que los datos retrocedan. Esto hará que la IA sea descentralizada y centrada en la privacidad.

Paradigma de IA

Paradigma actual de IA

Pre-entrenamiento

Pre-entrenamiento

Modelos de lenguaje grande

Modelos de lenguaje grande LLMS
Los modelos de lenguaje grande (LLM) son herramientas de IA que pueden leer, resumir y traducir texto. Esto les permite predecir palabras y formar oraciones que reflejan la forma en que las personas escriben y hablan.

Modelos Generativos

modelos generativos

Ingeniería rápida

pronta ingenieria
La ingeniería rápida es un concepto de procesamiento del lenguaje natural (NLP) que implica identificar entradas que producen resultados deseables o útiles. Como ocurre con la mayoría de los procesos, la calidad de las entradas también determina la calidad de las salidas en la ingeniería rápida. El diseño de avisos efectivos aumenta la probabilidad de que el modelo devuelva una respuesta tanto afirmativa como contextual. El modelo de preentrenamiento de imágenes y lenguaje contrastivo (CLIP) desarrollado por OpenAI es un ejemplo de un modelo que utiliza indicaciones para clasificar imágenes y leyendas de más de 400 millones de pares de leyendas e imágenes.

Estructura organizativa de OpenAI

estructura organizativa openai
OpenAI es un laboratorio de investigación de inteligencia artificial que se transformó en una organización con fines de lucro en 2019. Su estructura corporativa consta de dos entidades: OpenAI, Inc., una LLC de Delaware de un solo miembro controlada por la organización sin fines de lucro OpenAI, y OpenAI LP, una organización de responsabilidad limitada con fines de lucro. OpenAI LP está gobernado por la Junta Directiva de OpenAI, Inc (la Fundación), que actúa como Socio General. Al mismo tiempo, los socios limitados incluyen empleados de LP, algunos miembros de la junta y otros inversionistas como la organización benéfica de Reid Hoffman, Khosla Ventures y Microsoft, el principal inversionista de LP.

Modelo de negocio de IA abierta

¿Cómo gana dinero Openai?
OpenAI ha construido la capa base de la industria de la IA. Con grandes modelos generativos como GPT-3 y DALL-E, OpenAI proporciona acceso a la API para las empresas que desean desarrollar aplicaciones basadas en sus modelos básicos mientras pueden integrar esos modelos en sus productos y utilizar esos modelos con datos patentados e IA adicional. personalizar características. Por otro lado, OpenAI también lanzó ChatGPT, que se basa en un modelo freemium. Microsoft también comercializa productos Opener como parte de su asociación comercial.

OpenAI/Microsoft

openai-microsoft
Desde un punto de vista comercial, OpenAI y Microsoft se asociaron. La historia de la asociación comenzó en 2016 y se solidificó en 2019 cuando Microsoft invirtió mil millones de dólares en la asociación. Ahora está dando un gran paso adelante: Microsoft está negociando para invertir $10 mil millones en esta asociación. Microsoft está desarrollando su supercomputadora Azure AI a través de OpenAI mientras mejora su plataforma empresarial Azure e integra los modelos OpenAI en sus productos comerciales y de consumo (GitHub, Office, Bing).

Modelo de negocio de IA de estabilidad

Cómo-Estabilidad-AI-Dinero
Stability AI es el motor detrás de Stable Diffusion. Stability gana dinero con nuestros productos de IA y proporciona servicios de consultoría de IA a las empresas. Stability AI monetiza Stable Diffusion a través de las API de DreamStudio. Al mismo tiempo, también se lanza como una versión de código abierto para que cualquiera pueda descargarla y usarla. Stability AI también gana dinero con los servicios empresariales, donde su equipo de desarrollo central brinda a los clientes empresariales la capacidad de mantener, escalar y personalizar Stable Diffusion u otros modelos generativos grandes para satisfacer sus necesidades.

Estabilidad del ecosistema de IA

Estabilidad del ecosistema de IA


Si quieres conocer otros artículos parecidos a Una visión para la IA descentralizada puedes visitar la categoría Negocios Online.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir