¿Quién es Yann LeCun? - MBA de cuatro semanas


Yann LeCun es un científico informático nacido en Francia que trabaja en los campos de la visión artificial, la robótica móvil, el aprendizaje automático y la neurociencia computacional.

Junto con Yoshua Bengio y Geoffrey Hinton, LeCun es uno de los llamados "Tres mosqueteros" del aprendizaje profundo, quien desde el principio postuló que las redes neuronales artificiales que imitan el cerebro humano permitirían que las computadoras aprendan.

LeCun tiene una amplia trayectoria profesional y una lista de logros de sus muchos años en la industria.

carrera temprana

Después de recibir su Ph.D. LeCun se graduó con una licenciatura en informática de la Universidad Pierre y Marie Curie en 1987 y pasó los siguientes ocho años como investigador asociado en AT&T Bell Laboratories. Allí investigó, entre otras cosas, aprendizaje automático, redes neuronales, reconocimiento óptico de caracteres, reconocimiento de escritura a mano y verificación de firmas.

LeCun propuso una arquitectura de red neuronal convolucional (CNN) para ayudar a las computadoras a identificar imágenes a fines de la década de 1980 y construyó con éxito una arquitectura capaz de reconocer caracteres escritos a mano en 1994.

Al igual que su posterior colega Hinton, LeCun se sintió atraído inicialmente por el enfoque de la red neuronal para la IA, entonces pasado de moda, y propuso que las limitaciones de tales redes podrían superarse utilizando lo que más tarde se conoció como el "algoritmo de propagación hacia atrás". En esencia, el algoritmo pudo entrenar neuronas "ocultas" en las capas intermedias entre los nodos de entrada y salida.

Luego, en enero de 1996, LeCun se convirtió en jefe de departamento de AT&T Labs Research, donde continuó su trabajo en CNN y fue pionero en la detección de automóviles, animales, rostros humanos y otros objetos.

En 1998, los bancos estaban utilizando el trabajo anterior de LeCun sobre el reconocimiento de caracteres escritos a mano para automatizar el proceso de verificación de cheques. En un momento a fines de la década de 1990, la tecnología se usó en el 10% de todos los cheques emitidos en los Estados Unidos.

Ciencia

LeCun comenzó a dividir su tiempo entre la academia y el sector privado a principios de la década de 2000.

Trabajó brevemente en el Instituto de Investigación NEC antes de unirse a la Universidad de Nueva York (NYU) como profesor de neurociencia en el Instituto Courant de Ciencias Matemáticas y el Centro de Ciencias Neurales. Durante este tiempo, trabajó principalmente en modelos supervisados ​​y no supervisados ​​para el reconocimiento de objetos en visión artificial.

Más tarde, LeCun se convirtió en el director fundador del NYU Center for Data Science y cofundó la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR) con Yoshua Bengio en 2013. La conferencia contó con conferencias y presentaciones de artículos arbitrados sobre aprendizaje automático.

LeCun también fundó varias empresas durante este período. Éstas incluyen:

  • YLC Consulting: una empresa de consultoría de software y aprendizaje automático fundada en 2008.
  • MuseAmi: un desarrollador de software y hardware de tecnología para la producción musical, el entretenimiento y la educación y
  • Element Inc: desarrollador de productos de autenticación biométrica basados ​​en software.

Facebook

En 2013, Facebook contrató a LeCun para dirigir su departamento de inteligencia artificial recientemente formado. Ocupó ese cargo durante aproximadamente cuatro años antes de convertirse en vicepresidente y científico jefe de IA de la empresa en marzo de 2018. Todavía ocupa este cargo en Meta hoy.

Primero, LeCun supervisó las herramientas de aprendizaje profundo que Facebook usaba para analizar datos del comportamiento de su amplia base de usuarios e identificar rostros en las fotos cargadas. Sin embargo, con el tiempo, LeCun fue designado para liderar la estrategia de investigación y desarrollo de IA y el liderazgo científico.

En 2019, por ejemplo, anunció que Facebook estaba desarrollando sus propios chips específicamente para contextos de aprendizaje automático. También vio una necesidad apremiante de chips de bajo consumo que pudieran procesar datos de dispositivos móviles en el propio dispositivo (en lugar de en la nube).

premio turing

LeCun, Hinton y Bengio ganaron el Premio Turing 2018 en marzo de 2019. El premio anual por contribuciones significativas y duraderas a la informática es presentado por la Association for Computing Machinery (ACM).

ACM señaló que LeCun recibió el premio por "avances conceptuales y técnicos que han hecho de las redes neuronales profundas una parte crucial de la informática.

Las tesis centrales:

  • Yann LeCun es un científico informático nacido en Francia que trabaja en los campos de la visión artificial, la robótica móvil, el aprendizaje automático y la neurociencia computacional. LeCun es uno de los llamados "Tres mosqueteros" del aprendizaje profundo, junto con Yoshua Bengio y Geoffrey Hinton.
  • LeCun fue investigador asociado en AT&T Bell Laboratories durante ocho años. Más tarde propuso una arquitectura de red neuronal convolucional (CNN) a fines de la década de 1980 para ayudar a las computadoras a identificar imágenes y construyó con éxito una en 1994 que podía reconocer caracteres escritos a mano.
  • LeCun comenzó a dividir su tiempo entre la academia y la empresa privada a principios de la década de 2000 y se mudó a Facebook en 2013 para dirigir el departamento de inteligencia artificial recientemente formado. LeCun permanece en Meta hasta el día de hoy y está principalmente involucrado en el liderazgo científico de la compañía y en la estrategia de investigación y desarrollo de IA.

Sigue leyendo: ingeniero industrial, diseñador industrial.

Análisis y marcos empresariales conectados

Paradigma de IA

Paradigma actual de IA

Pre-entrenamiento

Pre-entrenamiento

Modelos de lenguaje grande

Modelos de lenguaje grande LLMS
Los modelos de lenguaje grande (LLM) son herramientas de IA que pueden leer, resumir y traducir texto. Esto les permite predecir palabras y formar oraciones que reflejan la forma en que las personas escriben y hablan.

Modelos Generativos

modelos generativos

Ingeniería rápida

pronta ingenieria
La ingeniería rápida es un concepto de procesamiento del lenguaje natural (NLP) que implica identificar entradas que producen resultados deseables o útiles. Como ocurre con la mayoría de los procesos, la calidad de las entradas también determina la calidad de las salidas en la ingeniería rápida. El diseño de avisos efectivos aumenta la probabilidad de que el modelo devuelva una respuesta tanto afirmativa como contextual. El modelo de preentrenamiento de imágenes y lenguaje contrastivo (CLIP) desarrollado por OpenAI es un ejemplo de un modelo que utiliza indicaciones para clasificar imágenes y leyendas de más de 400 millones de pares de leyendas e imágenes.

AIOps

aiops
AIOps es la aplicación de la inteligencia artificial a las operaciones de TI. Ha demostrado ser especialmente útil para la gestión de TI moderna en entornos híbridos, distribuidos y dinámicos. AIOps se ha convertido en un componente operativo importante de las organizaciones digitales modernas impulsadas por software y algoritmos.

aprendizaje automático

mlops
Machine Learning Ops (MLOps) describe un conjunto de mejores prácticas para ayudar a una empresa a utilizar la inteligencia artificial con éxito. Consiste en las habilidades, flujos de trabajo y procesos para construir, ejecutar y mantener modelos de aprendizaje automático para respaldar varios procesos operativos dentro de las organizaciones.

Inteligencia continua

Modelo de negocio de Inteligencia Continua
Los modelos de inteligencia empresarial se han trasladado a la inteligencia continua, que combina una infraestructura de tecnología dinámica con entrega y entrega continuas para brindar inteligencia continua. En definitiva, el software que se ofrece en la nube se integra con los datos de la empresa y utiliza AI/ML para dar respuestas en tiempo real a los problemas actuales que la empresa pueda estar enfrentando.

Innovación continua

Innovación continua
Este es un proceso que requiere un circuito de retroalimentación continuo para desarrollar un producto valioso y construir un modelo comercial viable. La innovación continua es una mentalidad en la que los productos y servicios se diseñan y entregan para abordar los problemas de los clientes en lugar de la solución técnica de sus fundadores.

Modelado Tecnológico

modelado tecnológico
El modelado tecnológico es una disciplina que tiene como objetivo proporcionar a las empresas las bases para sustentar la innovación y, por lo tanto, para el desarrollo de productos incrementales. Al mismo tiempo, buscamos productos innovadores que puedan allanar el camino para el éxito a largo plazo. En una especie de estrategia de barra, el modelado tecnológico propone un enfoque doble, con el objetivo, por un lado, de seguir manteniendo la innovación continua como parte central del modelo de negocio. Por otro lado, se apuesta por futuros desarrollos que tengan potencial para lograr un gran avance y dar un salto adelante.

Ingeniería Industrial

Manifiesto de ingeniería empresarial

Plantilla de modelo de negocio técnico

Plantilla de modelo de negocio
Un modelo de negocio tecnológico consta de cuatro componentes principales: modelo de valor (propuesta de valor, misión, visión), modelo tecnológico (gestión de I+D), modelo de ventas (estructura organizativa para ventas y marketing) y modelo financiero (modelo de ingresos, estructura de costes, rentabilidad). ). y generación/gestión de efectivo). Reunir estos elementos puede servir como base para construir un modelo de negocio de tecnología sólido.

Modelo de negocio de IA abierta

¿Cómo gana dinero Openai?
OpenAI ha construido la capa base de la industria de la IA. Con grandes modelos generativos como GPT-3 y DALL-E, OpenAI proporciona acceso a la API para las empresas que desean desarrollar aplicaciones basadas en sus modelos básicos mientras pueden integrar esos modelos en sus productos y utilizar esos modelos con datos patentados e IA adicional. personalizar características. Por otro lado, OpenAI también lanzó ChatGPT, que se basa en un modelo freemium. Microsoft también comercializa productos Opener como parte de su asociación comercial.

OpenAI/Microsoft

openai-microsoft
Desde un punto de vista comercial, OpenAI y Microsoft se asociaron. La historia de la asociación comenzó en 2016 y se solidificó en 2019 cuando Microsoft invirtió mil millones de dólares en la asociación. Ahora está dando un gran paso adelante: Microsoft está negociando para invertir $10 mil millones en esta asociación. Microsoft está desarrollando su supercomputadora Azure AI a través de OpenAI mientras mejora su plataforma empresarial Azure e integra los modelos OpenAI en sus productos comerciales y de consumo (GitHub, Office, Bing).

Modelo de negocio de IA de estabilidad

Cómo-Estabilidad-AI-Dinero
Stability AI es el motor detrás de Stable Diffusion. Stability gana dinero con nuestros productos de IA y proporciona servicios de consultoría de IA a las empresas. Stability AI monetiza Stable Diffusion a través de las API de DreamStudio. Al mismo tiempo, también se lanza como una versión de código abierto para que cualquiera pueda descargarla y usarla. Stability AI también gana dinero con los servicios empresariales, donde su equipo de desarrollo central brinda a los clientes empresariales la capacidad de mantener, escalar y personalizar Stable Diffusion u otros modelos generativos grandes para satisfacer sus necesidades.

Estabilidad del ecosistema de IA

Estabilidad del ecosistema de IA

Guía principal:


Si quieres conocer otros artículos parecidos a ¿Quién es Yann LeCun? - MBA de cuatro semanas puedes visitar la categoría Negocios Online.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir