¿Quién es Emily Bender? - MBA de cuatro semanas
Emily M. Bender es profesora en la Universidad de Washington y se especializa en procesamiento del lenguaje natural (PNL) y lingüística computacional. Bender también es director del programa de Maestría en Ciencias en Lingüística Computacional (CLMS) de la universidad y, en ocasiones, ha expresado su preocupación por los posibles riesgos sociales de los grandes modelos de lenguaje.
formación y entrada en la carrera
Bender recibió un Ph.D. Recibió su licenciatura en Lingüística de la Universidad de Stanford en 2000 y poco después pasó unos diez meses como profesor asociado en la Universidad de California, Berkeley.
En 2001, trabajó brevemente como ingeniera gramatical en YY Technologies antes de regresar a Stanford en septiembre de 2002 como profesora asistente asociada.
Universidad de Washington
Doce meses después, Bender aceptó una cátedra asistente de lingüística en la Universidad de Washington. Ahora es Profesora Asociada de Informática e Ingeniería, Profesora de Lingüística y, como se mencionó anteriormente, Directora del programa CLMS.
Además, Bender está involucrado en varias instituciones universitarias:
- Laboratorio de políticas tecnológicas: una colaboración interdisciplinaria para promover y mejorar la política tecnológica a través de la investigación y la educación.
- Laboratorio de diseño sensible al valor: una iniciativa centrada en el diseño consciente del valor. Introducido en la década de 1990, el enfoque establece teorías y métodos para incorporar valores humanos a lo largo del proceso de diseño.
- ELEVAR - RAISE es un acrónimo de Responsabilidad en Sistemas y Experiencias de IA. La misión de RAISE es explorar los sistemas de IA y sus interacciones con los valores humanos. Además, se desarrollarán sistemas para contextos desatendidos en áreas críticas como educación, finanzas, política y salud.
Loros estocásticos
En respuesta a los rápidos avances en PNL en los últimos tres años, Bender publicó el artículo Sobre los peligros de los loros estocásticos: ¿Pueden los modelos de lenguaje ser demasiado grandes? en marzo de 2021.
El documento planteó preguntas importantes sobre los riesgos asociados con los LLM y cómo se podrían mitigar esos riesgos. Con este fin, Bender sugirió considerar principalmente los costos financieros y ambientales.
También creía que se deberían invertir recursos para mejorar la calidad de los aportes del LLM. En otras palabras, los conjuntos de datos deben seleccionarse y documentarse cuidadosamente, a diferencia de los modelos que simplemente consumen toda la información en la web.
Chatbot LaMDA de Google
Cuando el ingeniero de Google, Blake Lemoine, declaró públicamente que el chatbot LaMDA de la compañía era sensible, Bender enfatizó que el aparente malentendido "destaca los riesgos de diseñar sistemas para convencer a las personas de que ven inteligencia real e independiente en un programa. Si creemos que las máquinas generadoras de texto son conscientes, ¿qué acciones podríamos tomar en función del texto que generan?”
En el corazón del artículo que escribió para El guardia es que la gente instintivamente cree que las palabras generadas por un chatbot fueron creadas por una mente humana. También argumentó que el servicio de conserjería de preguntas y respuestas ahora integrado en la Búsqueda de Google aumenta la probabilidad de que un usuario tome la información obtenida de Internet como un hecho.
Para evitar la difusión de información errónea y desarrollar sistemas que "No abuses de nuestra empatía ni de nuestra confianza.Bender enfatizó que la transparencia es clave. ¿Para qué fue entrenado el modelo? ¿Sobre qué información se entrenó? ¿Quién eligió los datos y con qué propósito?
Las tesis centrales:
- Emily M. Bender es profesora en la Universidad de Washington y se especializa en procesamiento del lenguaje natural (PNL) y lingüística computacional.
- En la Universidad de Washington, Bender está involucrado con varias organizaciones enfocadas en el diseño, la política y el impacto de la IA y la tecnología. Estos incluyen RAISE, Value Sensitive Design Lab y Tech Policy Lab.
- En un artículo académico de 2021, Bender planteó varias preguntas clave sobre los riesgos asociados con los LLM y cómo se podrían mitigar esos riesgos. También ha escrito sobre el papel de los chatbots de IA y su contribución a la difusión de información errónea.
Leer más: Historia de OpenAI, modelos de negocio de IA, economía de IA.
Análisis del modelo de negocio en red
Paradigma de IA
Pre-entrenamiento
Modelos de lenguaje grande
Modelos Generativos
Ingeniería rápida
Estructura organizativa de OpenAI
Modelo de negocio de IA abierta
OpenAI/Microsoft
Modelo de negocio de IA de estabilidad
Estabilidad del ecosistema de IA
Relacionado
Si quieres conocer otros artículos parecidos a ¿Quién es Emily Bender? - MBA de cuatro semanas puedes visitar la categoría Negocios Online.
Deja una respuesta