#42 Semana 31/3/2023 - El Valle Inquietante y la inquietante carta masiva para pausar la investigación en Inteligencia Artificial General (AGI)
¿Es tan potente la IA actual? ¿Qué riesgos existen? ¿Qué es una AGI? ¿Qué motivación mueve a las Inteligencias Artificiales? ¿Por qué nos dan miedo? ¿Es posible parar el desarrollo tecnológico?
Hola! Esta es la newsletter de Gonzalo Ruiz Utrilla, donde semanalmente escribo sobre temas que comento con mis amigos. Si te gusta no dudes en suscribirte.
Damos la bienvenida a los 230
nuevos suscriptores de esta semana. Ya somos 3408
. Esta comunidad es pequeña pero cada semana crece y seguimos con el ratio de apertura superior al 70%.
Los temas que trato suelen ser temas profundos y con implicaciones en Salud, Biohacking, Longevidad, Economía y Tecnología. Los lectores interesados soléis ser directivos de empresas, empresarios, inversores y profesionales influyentes en vuestro sector. Espero que disfrutéis leyendo tanto como yo escribiendo.
Algunos ejemplos de últimos artículos son los Dispositivos de Telepatía o BCIs ya existentes, dónde comer carne sintética fabricada con células, cómo contratar servicios de Criopreservación Humana como alternativa a Incineración y Cremación, etc
Si conoces algún producto o servicio relacionado con Negocios, Web3, Biohacking, Salud, Longevidad, Sostenibilidad o Tecnología que pueda ser relevante y útil para la comunidad de lectores e interesados en estos temas, puedes ponerte en contacto conmigo. Comentaremos como destacados los que creamos que pueden ayudar a la comunidad. Puedes ver las anteriores recomendaciones en la lista de publicados.
Sin más dilación vamos al artículo de la semana.
La carta para pausar la investigación en Inteligencia Artificial
Esta semana ha aparecido una inquietante carta abierta firmada por más de 1000 personas entre las que se encuentran Elon Musk, Steve Wozniak, (Co-fundador de Apple), Yuval Harari … y fundadores y altos directivos de grandes compañías tecnológicas.
El título de la carta es: Pausad los experimentos gigantes de Inteligencia Artificial.
¿Y qué dice la carta?
Pues dice cosas como:
No se está planificando bien la investigación. Hay una carrera en investigar IA descontrolada por desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede comprender, predecir o controlar de forma fiable.
¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los más gratificantes? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?
Pero ¿Es tan potente la IA actual? ¿Qué puede hacer? ¿Qué riesgos existen?
Seguramente ya lo habrás visto, pero recientemente han ocurrido ciertos lanzamientos que no se esperaban tan rápido.
Lanzamiento de GPT-4. GPT-4 es la última versión del modelo de lenguaje preentrenado de inteligencia artificial de OpenAI. GPT-4 ha demostrado un rendimiento a nivel humano en varios benchmarks profesionales y académicos. Es una IA con la que se puede dialogar para que nos asista en peticiones que le hagamos.
Plugins para ChatGPT: También muy recientemente se han anunciado los plugins que se conectan a sitios web específicos para ampliar aún más las capacidades de ChatGPT. Permiten que ChatGPT acceda a información actualizada, ejecute cálculos o use servicios de terceros.
La combinación de ambas permite que cuando ChatGPT con motor GPT-4 por detrás se conecta a internet, pueda realizar muchos tipos de tareas. Hay alguna demo en video alucinante de lo que puede hacer. Matt Wolfe lo explica muy bien en su canal.
Ya se pueden hacer cosas como:
Conéctate a Internet.
Busca información sobre XXXX
Aprende todo lo que puedas
Ejecuta YYYY en base a lo aprendido (Reservame un hotel barato y con ciertas características, resérvame un vuelo, hazme menú semanal basado en ciencia y pide la comida para preparalos y que llegue a mi casa, reserva mesa en restaurantes llamando y usando el API de voz de X, etc etc)
El miedo de muchos es que estas acciones se usen para el crimen, como esta noticia donde unos criminales clonaron la voz del hijo de una pareja para engañarles.
Esto es un crimen basado en herramientas que un humano puede usar.
Pero. ¿Y si una Inteligencia Artificial pudiera pensar y ser proactiva por su cuenta?
¿Y si tuviera una inteligencia equivalente a un humano?
¿Qué podría pasar si existieran las inteligencias artificiales generales?
AGI o Inteligencias Artificiales Generales
La AGI (Inteligencia Artificial General) se refiere a un nivel de inteligencia artificial que puede igualar o superar la capacidad cognitiva humana en múltiples tareas intelectuales.
A diferencia de la inteligencia artificial estrecha (IA estrecha o ANI), que está diseñada para realizar una tarea específica, como clasificar imágenes o responder preguntas específicas, la AGI tendría una inteligencia equivalente a la humana, con la capacidad de resolver problemas, aprender y planear el futuro.
La AGI es una forma teórica de IA en la que una máquina tendría conciencia de sí misma…. o quizá no haría falta.
Imagen generada por inteligencia Artificial mediante Midjourney sobre una AGI que domina el mundo
Muchos opinan que en el momento que exista una AGI, se habrá alcanzado la Singularidad.
En ese momento, ya no podremos parar a las IAs, ya que ellas serán proactivas y harán lo que consideren.
No podremos entenderlas, al igual que los perros no entienden a los humanos.
Seremos “subseres” comparados con ellas en el sentido de capacidad cognitiva. Ellas seguirían investigando IA y cada día mejorarían varios órdenes de magnitud.
¿Es esto posible?
¿Esto va a ocurrir?
En este miedo se basa la carta con la que iniciábamos el artículo. El miedo a que esto haya ocurrido ya y una AGI ya esté en el mundo en 2023.
Javilop en el artículo invitado de hace unos meses comentaba un miedo similar.
¿Qué motivación mueve a las Inteligencias Artificiales?
Es una muy buena pregunta. Elon Musk con su empresa Neuralink, pretende gracias a los exocortex hibridar de alguna manera a humanos e Inteligencias Artificiales, para que de alguna manera, cuando llegue la AGI, nos considere de alguna manera, “sus ancestros” y no quiera destruirnos. Quizá nos permitan vivir, al igual que nosotros permitimos vivir a los perros, gatos, vacas y algún que otro animal en el caso de que nos interese verlo en Zoológicos o incluso en entorno natural.
¿Serán las AGI con nosotros como nosotros con los animales con menos poder cognitivo? ¿Nos hibridaremos? ¿Evolucionaremos con ellas?
En un artículo hace tiempo hablábamos de la gran diferencia en la capacidad de planificación e imaginación de los humanos frente a los animales, que nos hace apreciar el dinero como forma de acumular tiempo para poder desarrollar nuestros sueños.
¿Cuál será la motivación de las AGIs?
Pero. ¿Cuando llegarán las AGIs?
Se dice que cuando se pregunta a un grupo de expertos sobre la fecha de algún evento en su campo de especialidad, suelen hacer buenas predicciones cuando se recogen los resultados globales.
Sobre todo son buenos, cuando se actualizan frecuentemente las respuestas y sobre todo cuando estos expertos siguen aprendiendo sobre ese evento y campo de conocimiento.
Metaculus es una plataforma de predicción y comunidad dedicada a recopilar y perfeccionar predicciones sobre diversos acontecimientos, avances científicos, avances tecnológicos y otros temas. Los participantes envían sus predicciones a las preguntas planteadas en la plataforma, y estas predicciones se combinan en un pronóstico de consenso.
Metaculus utiliza un sistema de puntuación para incentivar las predicciones precisas y hacer un seguimiento del rendimiento de los participantes a lo largo del tiempo. Esto les motiva a revisar y actualizar sus previsiones a medida que se dispone de nueva información. La plataforma está abierta a todo el que quiera participar.
En dos preguntas de predicción, Metaculus pregunta por la aparición de la Inteligencia General Artificial (AGI).
Pues bien, aquí está la predicción sobre cuando llegará la AGI.
Es muy interesante observar que en 2020 la media de las respuestas pronosticaban que se conseguiría en el año 2100. Con los avances actuales, la fecha está en torno a 2031. ¿Cuándo llegará realmente? No apostaría a más tarde de 2040.
Desde luego la opinión sobre si las AGIs están ya entre nosotros, o sobre cuando llegarán, o si se debería permitir que lleguen es un debate en auge estos días (Ver debate en reddit).
Sam Altman, CEO de OpenAI tuiteaba hace unas horas, como respuesta a la famosa carta de pausa de las AGIs:
Y comentaba también que para el correcto desarrollo de unas AGIs necesitaríamos.
"La capacidad técnica para alinear una superinteligencia". (Para comprender mejor este concepto, le cedemos la palabra a la Wikipedia: "Si una IA es competente, pero persigue objetivos que no han sido previstos por los investigadores, se dice que no está alineada").
"Suficiente coordinación entre la mayoría de los principales proyectos de IA general [o IA fuerte]".
"Un marco regulatorio global efectivo que incluya la gobernabilidad democrática".
Sam Altman es, de hecho, la ausencia más destacada entre el listado de grandes nombres del sector que pusieron ayer su firma en la carta. Desde luego por declaraciones que ha realizado anteriormente, cree que la IA puede ser una herramienta para criminales o incluso que puede dar miedo, como ahora veremos con el concepto de Valle inquietante.
El Valle Inquietante
El concepto de valle inquietante se refiere a la hipótesis que afirma que cuando una réplica tecnológica de un humano se parece en exceso a la apariencia y comportamiento de un ser humano real…. causan una respuesta de rechazo entre los observadores humanos
Cuando algo se parece a un ser humano, pero no es del todo real, puede evocar la misma reacción que la gente siente cuando se encuentra con algo muerto o moribundo.
Esta respuesta aversiva y evolucionada a las amenazas potenciales de muerte y enfermedad puede ser una explicación del miedo a las inteligencias artificiales.
Las IAs actuales, responde “casi” como un humano… pero no son humanos. Y eso nos genera mucho rechazo.
En la entrada de la Wikipedia sobre el tema, se explica muy bien.
Fijaos el rechazo que provoca esta réplica de robot humano. Parece humano… pero hay algo que internamente nos grita. Aléjate.
En esta gráfica de rechazo, las IAS estarían empezando a generar un gran rechazo social.
¿Se deberían parar el desarrollo de la IA? ¿Es posible parar el desarrollo tecnológico?
Creo que pensar en que se puede parar el avance de la investigación en IAs, al igual que cualquier otro avance tecnológico es ingenuo.
Ya argumenté en el post de ¿Es buena la abundancia? que el Sapiens tiene la capacidad de pensar, imaginar, planificar y ejecutar. Y es ingenuo pensar que se va a conformar con lo que tiene y dejar de investigar.
El Sapiens planifica. No puede vivir sin imaginar.
El mundo evolucionará. El Sapiens lo va a modificar si no se destruye antes.
En esa evolución, la tecnología permitirá nuevas perspectivas.
¿Son buenas o malas? Generarán cambios.
Hay que verlas cómo herramientas que sirven para generar ciertos resultados.
Inputs que generan outputs.
Hay que entender el funcionamiento y decidir si queremos el resultado.
No siempre se puede decidir sobre todas las cosas.
Es más fácil decidir sobre el propio cuerpo, casa, familia…. que sobre el planeta.
En el artículo de Simpatizantes y detractores de la Criopreservación también comentaba el rechazo a los cambios que tienen algunos Sapiens. Mucho de ese rechazo lo atribuyo al entorno hormonal propio de cada uno.
¿Imagináis haber pedido parar la investigación sobre el fuego? ¿Sobre las matemáticas? ¿Sobre la exploración espacial? ¿Sobre la biología? ¿Sobre la electricidad?
Bonus Poing: Mi amigo Dani Seijo, quien está investigando sobre Inteligencia Artificial estos días para su nueva empresa y asegura que la mejor profesión que se puede tener en estos momentos es tener tiempo libre para averiguar qué hacer con la tecnología que está llegando, ha publicado un video en Youtube explicando algunas implicaciones sobre la llegada de las AGIs.
Muy interesante su reflexión acerca de los negocios del día 1 y día 2. ¿Qué negocios piensas que se podrían hacer en relación con el día 2 y adelante?
Hasta la semana que viene. Si tienes algún comentario puedes escribirme a gruizu@gmail.com