
En este cuarto episodio conversé con Daniel Watson, un investigador panameño de inteligencia artificial, trabajando en Google Brain. Estudió ciencias computacionales en NYU Abu Dhabi, graduado en el 2020.
El equipo de Google Brain es uno de los equipos de investigación mas vanguardistas del mundo en el tema de inteligencia artificial. Me emocionó mucho conversar con Daniel sobre cómo llegó a este campo, cómo usamos la inteligencia artificial en nuestras vida, algunos ejemplos que parecen sacados de una película de ciencia ficción y algunos de los problemas sociales que tendremos que enfrentar.
Conversamos sobre:
- Aprender a programar de forma autodidacta con Scratch de MIT y Lego Mindstorms.
- Emprendiendo y viviendo en Abu Dhabi, un lugar donde 80% de su población es extranjera.
- Inicios de su aprendizaje sobre machine learning.
- El árabe como idioma morfológicamente más rico y con mayor cantidad de significados promedio por palabra que el inglés y cómo estas características dificultan su procesamiento por computadoras.
- La disglosia del árabe: una gran cantidad de dialectos hablados y el árabe estándar escrito.
- La forma de escritura romanizada del árabe usando letras romanas y números dificulta aún más el análisis computacional.
- Su trabajo con Nizar Habash, uno de los expertos globales de procesamiento de lenguaje natural (natural language processing) en árabe, creando un sistema de corrección de errores del árabe escrito.
- La velocidad en la producción de conocimiento en inteligencia artificial y machine learning y el uso de conferencias como alternativa al proceso académico tradicional de publicaciones con revisión de pares.
- Explicación de qué es inteligencia artificial en cinco niveles de complejidad para determinar si una foto tiene un perro o un gato.
- El rol de gradient descent como herramienta de evaluar la calidad de un modelo de inteligencia artificial.
- El uso de python por parte de la mayoría de la comunidad de inteligencia artificial y el uso de librerías de código abierto como TensorFlow, Pytorch y JAX.
- Definición de inteligencia artificial como problemas computacionales donde no se pueden escribir reglas que comprendan todos los casos, como por ejemplo, determinar si una foto es de un perro o de un gato, o la traducción entre idiomas.
- Comparación de la inteligencia artificial con la inteligencia natural del cerebro humano.
- El poder casi mágico de asociación y conexión del cerebro humano.
- Deep learning o aprendizaje profundo como subcategoría de machine learning y su uso de redes neuronales.
- La Ley de Moore y la capacidad ociosa de los aparatos que tenemos, que posibilitó las aplicaciones que estamos viendo hoy.
- Geoffrey Hinton (¡también involucrado con Google Brain!), como pionero en la teorización del funcionamiento de redes neuronales y los inicios de las aplicaciones prácticas del tema en 2010 con 100 mil computadoras. ¡Hace sólo 11 años!
- El experimento de Andrew Ng de usar unas pocas tarjetas de video en 2011 para lograr lo que 100 mil computadoras habían logrado con Geoffrey Hinton.
- La migración de fabricantes de hardware para videojuegos como Nvidia hacia hardware para inteligencia artificial.
- Usos y ejemplos diarios de inteligencia artificial. ¡Ya es parte de nuestras vidas!
- Regulación de la inteligencia artificial en Europa y sus posibles consecuencias no deseadas sobre compañías pequeñas y medianas.
- Los efectos de la inteligencia artificial sobre el empleo: ¿preocupación justificada o neoludismo?
- Los posibles nuevos empleos que se pueden crear por la necesidad de generar datos para entrenar modelos de inteligencia artificial, por ejemplo Amazon Mechanical Turk.
- La distinción entre aprendizaje supervisado de modelos versus aprendizaje no supervisado y ejemplos como GTP-3.
- La inteligencia artificial y los deepfakes, o imágenes o videos falsos que son prácticamente indistinguibles de los videos reales.
- El surgimiento de una posible nueva anonimidad posibilitada por deepfakes y una posible crisis en credibilidad del contenido en internet.
- La posible necesidad de uso de identidad criptográfica y posesión de llaves privadas criptográficas para probar de forma fehaciente la identidad.
- Los ataques adversariales entre modelos de inteligencia artificial o el intento de uso de un modelo de inteligencia artificial para evitar el control por otro modelo.
- La aplicación de machine learning a los carros autónomos creados por compañías como Waymo o Tesla.
- El singularity y la película Transcendence.
- El trabajo de Neuralink para permitirnos ser parte de una posible inteligencia artificial a futuro y la explicación en Wait but Why.
- Los modelos de OpenAI que conectan texto con imágenes (CLIP) y que generan imágenes a partir de texto (DALL·E) como ejemplos de modelos multimodales de inteligencia artificial como el potencial inicio de una inteligencia artificial que funcione de forma general e indistinguible del cerebro humano.
- Futuro cercano: avance científico mucho más rápido, como lo que está haciendo AlphaFold de DeepMind en relación con la forma de las proteínas producidas por el cuerpo humano.
- Futuro cercano: uso adicional de inteligencia artificial para el diseño de hardware para inteligencia artificial. Ver publicación de Google en Nature de investigación que prueba que modelos de inteligencia artificial diseñan chips mejor que los seres humanos.
- Cursos en internet accesibles para quienes quieren inicial con el tema: Machine Learning Crash Course de Google y los cursos ofrecidos por Udacity.
- Lo más importante es hacer y construir cosas en vez de aprender de forma teórica, porque lo que aprendes se te olvida.
Canción de inicio y fin: Curación por LamatUuc, músico y criptoartista mexicano. Usada con su permiso expreso. Pueden ver sus NFTs aquí.