¿Quién es Emily Bender? - MBA de cuatro semanas


Emily M. Bender es profesora en la Universidad de Washington y se especializa en procesamiento del lenguaje natural (PNL) y lingüística computacional. Bender también es director del programa de Maestría en Ciencias en Lingüística Computacional (CLMS) de la universidad y, en ocasiones, ha expresado su preocupación por los posibles riesgos sociales de los grandes modelos de lenguaje.

formación y entrada en la carrera

Bender recibió un Ph.D. Recibió su licenciatura en Lingüística de la Universidad de Stanford en 2000 y poco después pasó unos diez meses como profesor asociado en la Universidad de California, Berkeley.

En 2001, trabajó brevemente como ingeniera gramatical en YY Technologies antes de regresar a Stanford en septiembre de 2002 como profesora asistente asociada.

Universidad de Washington

Doce meses después, Bender aceptó una cátedra asistente de lingüística en la Universidad de Washington. Ahora es Profesora Asociada de Informática e Ingeniería, Profesora de Lingüística y, como se mencionó anteriormente, Directora del programa CLMS.

Además, Bender está involucrado en varias instituciones universitarias:

  • Laboratorio de políticas tecnológicas: una colaboración interdisciplinaria para promover y mejorar la política tecnológica a través de la investigación y la educación.
  • Laboratorio de diseño sensible al valor: una iniciativa centrada en el diseño consciente del valor. Introducido en la década de 1990, el enfoque establece teorías y métodos para incorporar valores humanos a lo largo del proceso de diseño.
  • ELEVAR - RAISE es un acrónimo de Responsabilidad en Sistemas y Experiencias de IA. La misión de RAISE es explorar los sistemas de IA y sus interacciones con los valores humanos. Además, se desarrollarán sistemas para contextos desatendidos en áreas críticas como educación, finanzas, política y salud.

Loros estocásticos

En respuesta a los rápidos avances en PNL en los últimos tres años, Bender publicó el artículo Sobre los peligros de los loros estocásticos: ¿Pueden los modelos de lenguaje ser demasiado grandes? en marzo de 2021.

El documento planteó preguntas importantes sobre los riesgos asociados con los LLM y cómo se podrían mitigar esos riesgos. Con este fin, Bender sugirió considerar principalmente los costos financieros y ambientales.

También creía que se deberían invertir recursos para mejorar la calidad de los aportes del LLM. En otras palabras, los conjuntos de datos deben seleccionarse y documentarse cuidadosamente, a diferencia de los modelos que simplemente consumen toda la información en la web.

Chatbot LaMDA de Google

Cuando el ingeniero de Google, Blake Lemoine, declaró públicamente que el chatbot LaMDA de la compañía era sensible, Bender enfatizó que el aparente malentendido "destaca los riesgos de diseñar sistemas para convencer a las personas de que ven inteligencia real e independiente en un programa. Si creemos que las máquinas generadoras de texto son conscientes, ¿qué acciones podríamos tomar en función del texto que generan?

En el corazón del artículo que escribió para El guardia es que la gente instintivamente cree que las palabras generadas por un chatbot fueron creadas por una mente humana. También argumentó que el servicio de conserjería de preguntas y respuestas ahora integrado en la Búsqueda de Google aumenta la probabilidad de que un usuario tome la información obtenida de Internet como un hecho.

Para evitar la difusión de información errónea y desarrollar sistemas que "No abuses de nuestra empatía ni de nuestra confianza.Bender enfatizó que la transparencia es clave. ¿Para qué fue entrenado el modelo? ¿Sobre qué información se entrenó? ¿Quién eligió los datos y con qué propósito?

Las tesis centrales:

  • Emily M. Bender es profesora en la Universidad de Washington y se especializa en procesamiento del lenguaje natural (PNL) y lingüística computacional.
  • En la Universidad de Washington, Bender está involucrado con varias organizaciones enfocadas en el diseño, la política y el impacto de la IA y la tecnología. Estos incluyen RAISE, Value Sensitive Design Lab y Tech Policy Lab.
  • En un artículo académico de 2021, Bender planteó varias preguntas clave sobre los riesgos asociados con los LLM y cómo se podrían mitigar esos riesgos. También ha escrito sobre el papel de los chatbots de IA y su contribución a la difusión de información errónea.

Leer más: Historia de OpenAI, modelos de negocio de IA, economía de IA.

Análisis del modelo de negocio en red

Paradigma de IA

Paradigma actual de IA

Pre-entrenamiento

Pre-entrenamiento

Modelos de lenguaje grande

Modelos de lenguaje grande LLMS
Los modelos de lenguaje grande (LLM) son herramientas de IA que pueden leer, resumir y traducir texto. Esto les permite predecir palabras y formar oraciones que reflejan la forma en que las personas escriben y hablan.

Modelos Generativos

modelos generativos

Ingeniería rápida

pronta ingenieria
La ingeniería rápida es un concepto de procesamiento del lenguaje natural (NLP) que implica identificar entradas que producen resultados deseables o útiles. Como ocurre con la mayoría de los procesos, la calidad de las entradas también determina la calidad de las salidas en la ingeniería rápida. El diseño de avisos efectivos aumenta la probabilidad de que el modelo devuelva una respuesta tanto afirmativa como contextual. El modelo de preentrenamiento de imágenes y lenguaje contrastivo (CLIP) desarrollado por OpenAI es un ejemplo de un modelo que utiliza indicaciones para clasificar imágenes y leyendas de más de 400 millones de pares de leyendas e imágenes.

Estructura organizativa de OpenAI

estructura organizativa openai
OpenAI es un laboratorio de investigación de inteligencia artificial que se transformó en una organización con fines de lucro en 2019. Su estructura corporativa consta de dos entidades: OpenAI, Inc., una LLC de Delaware de un solo miembro controlada por la organización sin fines de lucro OpenAI, y OpenAI LP, una organización de responsabilidad limitada con fines de lucro. OpenAI LP está gobernado por la Junta Directiva de OpenAI, Inc (la Fundación), que actúa como Socio General. Al mismo tiempo, los socios limitados incluyen empleados de LP, algunos miembros de la junta y otros inversionistas como la organización benéfica de Reid Hoffman, Khosla Ventures y Microsoft, el principal inversionista de LP.

Modelo de negocio de IA abierta

¿Cómo gana dinero Openai?
OpenAI ha construido la capa base de la industria de la IA. Con grandes modelos generativos como GPT-3 y DALL-E, OpenAI proporciona acceso a la API para las empresas que desean desarrollar aplicaciones basadas en sus modelos básicos mientras pueden integrar esos modelos en sus productos y utilizar esos modelos con datos patentados e IA adicional. personalizar características. Por otro lado, OpenAI también lanzó ChatGPT, que se basa en un modelo freemium. Microsoft también comercializa productos Opener como parte de su asociación comercial.

OpenAI/Microsoft

openai-microsoft
Desde un punto de vista comercial, OpenAI y Microsoft se asociaron. La historia de la asociación comenzó en 2016 y se solidificó en 2019 cuando Microsoft invirtió mil millones de dólares en la asociación. Ahora está dando un gran paso adelante: Microsoft está negociando para invertir $10 mil millones en esta asociación. Microsoft está desarrollando su supercomputadora Azure AI a través de OpenAI mientras mejora su plataforma empresarial Azure e integra los modelos OpenAI en sus productos comerciales y de consumo (GitHub, Office, Bing).

Modelo de negocio de IA de estabilidad

Cómo-Estabilidad-AI-Dinero
Stability AI es el motor detrás de Stable Diffusion. Stability gana dinero con nuestros productos de IA y proporciona servicios de consultoría de IA a las empresas. Stability AI monetiza Stable Diffusion a través de las API de DreamStudio. Al mismo tiempo, también se lanza como una versión de código abierto para que cualquiera pueda descargarla y usarla. Stability AI también gana dinero con los servicios empresariales, donde su equipo de desarrollo central brinda a los clientes empresariales la capacidad de mantener, escalar y personalizar Stable Diffusion u otros modelos generativos grandes para satisfacer sus necesidades.

Estabilidad del ecosistema de IA

Estabilidad del ecosistema de IA


Si quieres conocer otros artículos parecidos a ¿Quién es Emily Bender? - MBA de cuatro semanas puedes visitar la categoría Negocios Online.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir