Alrededor de 130 personas de más de una veintena de paÃses, desde polÃticos influyentes hasta ejecutivos de la élite empresarial y académicos, se reúnen del 18 al 21 de mayo en Lisboa, Portugal, para participar en el 63.° encuentro anual del Club Bilderberg.
Cada año, este selecto grupo, fundado en 1954, se reúne para sostener debates informales sobre temas vinculados con las relaciones internacionales, la economÃa y el comercio global, entre otras cuestiones de actualidad.
Durante esta edición, la inteligencia artificial (IA) es uno de los puntos más importantes a discutir y probablemente el que más expectativas ha causado.
Asimismo, los asistentes tratan sobre asuntos relacionados con la transición energética y el sistema financiero internacional, asà como el conflicto en Ucrania, la influencia de potencias como China y Rusia, el papel de la OTAN y el liderazgo mundial de EE.UU.
Participantes de élite
Entre los participantes de más alto perfil que asisten a la reunión hay representantes de gigantes tecnológicos como Satya Nadella, director ejecutivo de Microsoft; Eric Schmidt, expresidente ejecutivo de Google, y Sam Altman, consejero delegado de OpenAI. Asimismo, cuenta con delegados de entidades financieras globales como Goldman Sachs o el Banco de Inglaterra.
En cuanto a las figuras polÃticas, se encuentran el secretario general de la OTAN, Jens Stoltenberg; el vicepresidente de la Comisión Europea, Josep Borrell, y la presidenta del Parlamento Europeo, Roberta Metsola.
El Club Bilderberg es considerado como una de las organizaciones no gubernamentales más poderosas e influyentes del mundo. Debido a la sensibilidad de los temas que se abordan en su seno, las conclusiones de sus discusiones nunca se hacen públicas y los debates están rodeados de un alto secretismo.
“La reunión de Bilderberg es un foro de debates informales sobre grandes temas. Las reuniones se celebran bajo la Regla de la Casa Chatham, que establece que los participantes son libres de utilizar la información recibida, pero no se puede revelar ni la identidad ni la afiliación del orador u oradores ni de ningún otro participante”, dijeron los organizadores en un comunicadoÂde prensa este jueves.
Microsoft advierte que ChatGPT-4 da muestras de razonamiento humano
Investigadores de Microsoft que analizaron GPT-4, el modelo de inteligencia artificial (IA) de lenguaje natural que da soporte a ChatGPT de OpenAI, aseguran que refleja cierta conciencia y razonamiento humanos en sus respuestas a diferentes tareas propuestas. Para arribar a esta conclusión estuvieron trabajando durante meses con esa tecnologÃa, en pruebas con imágenes, textos y diversos temas de estudio.
En un informe publicadoÂrecientemente en el servicio de preimpresión arXiv, que aún no ha sido sometido a revisión por pares, los investigadores argumentaron que el sistema está a un paso de la inteligencia artificial general (AGI, por su siglas en inglés). El término designa a un sistema o modelo tecnológico que serÃa capaz de mostrar comprensión o razonamiento similar al de los humanos.
Los autores del estudio le pidieron al GPT-4 que solucionara ciertos problemas o acertijos para forzar la capacidad de razonamiento del modelo de lenguaje natural. Por ejemplo, que explicara cómo se podrÃan apilar de manera estable varios objetos como “un libro, nueve huevos, un ordenador portátil, una botella y un clavo”. La respuesta rápida y correcta sorprendió a los expertos.
La IA les sugirió que colocaran “el ordenador portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba. El ordenador encajarÃa perfectamente dentro de los lÃmites del libro y los huevos, y su superficie plana y rÃgida proporcionarÃa una plataforma estable para la siguiente capa“. Otra de las pruebas que le solicitaron a la IA fue un ejercicio matemático en el que mostrara, mediante una rima, que hay infinitos números primos. La respuesta fue igualmente ingeniosa y los dejó perplejos.
“¿Cosas que pensé que no serÃa capaz de hacer? Ciertamente, fue capaz de hacer muchas de ellas, si no la mayorÃa”, comentóÂa The New York Times Sébastien Bubeck, exprofesor de la Universidad de Princeton, EE.UU., quien dirigió el estudio.
Expertos en desacuerdo
Sin embargo, Maarten Sap, investigador y profesor de la Universidad Carnegie Mellon, EE.UU., considera el informé cientÃfico de Microsoft como una maniobra de relaciones públicas. “Literalmente, reconocen en la introducción de su artÃculo que su enfoque es subjetivo e informal y que puede no satisfacer los rigurosos estándares de la evaluación cientÃfica“, subrayó.
Otros expertos en inteligencia artificial que rechazan la idea de estar ante una AGI, consideran que sistemas como GPT-4 son sin duda poderosos, pero no está claro que el texto generado sea el resultado de algo asà como el razonamiento humano o el sentido común.
Afirman también que, al estar ante un sistema o máquina compleja cuyo funcionamiento es difÃcil de comprender, tanto expertos como usuarios sin conocimientos sobre el tema tienden a crear una idea errónea de la tecnologÃa. “Cuando vemos un sistema o máquina complicado, lo antropomorfizamos”, señaló Alison Gopnik, profesora de psicologÃa de la Universidad de California en Berkeley, EE.UU.
Apple habrÃa restringido a sus empleados el uso de ChatGPT
Este jueves se reportóÂque la compañÃa Apple, que fabrica dispositivos inteligentes como iPhones y iPads, mantiene restringido para sus empleados el uso de ChatGPT. En un documento al que tuvo acceso The Wall Street Journal, se menciona que Apple está desarrollando su propia tecnologÃa de inteligencia artificial (IA), similar a ChatGPT, pero le preocupa que sus trabajadores puedan divulgar datos confidenciales, incluso inconscientemente.
La compañÃa teme que los mecanismos de recopilación de información que utiliza para retroalimentar y entrenar su modelo de IA, que a su vez están supervisados por moderadores, puedan resultar en vulnerabilidades de seguridad para información sensible de Apple. En el documento también se afirma que la empresa advirtió a sus empleados contra el uso del asistente de programación de inteligencia artificial Copilot, de GitHub. Mark Gurman, corresponsal en jefe de Bloomberg, escribióÂen un tuit que considera que ChatGPT ha estado durante meses en la lista de software restringido de Apple.
Otras compañÃas tecnológicas también han prohibido o limitado el uso de este modelo de IA a sus empleados. La empresa surcoreana Samsung Electronics prohibióÂa sus empleados el uso en el trabajo de herramientas basadas en inteligencia artificial generativa, como ChatGPT, al descubrir que un código confidencial fue cargado accidentalmente en la plataforma.
Se anuncióÂeste jueves que la herramienta ChatGPT, de OpenAI, está disponible para dispositivos con iOS.
Exejecutivo de Google advierte de que la IA podrÃa ver a los humanos como “escoria” y crear “máquinas asesinas”
Un exejecutivo de Google advirtió sobre los peligros de la inteligencia artificial (IA) y aseguró que las máquinas impulsadas por esta podrÃan llegar a ver a los humanos como “escoria” e incluso pensar en conspirar para acabar con estos, recogeÂel periódico New York Post.
Hablando para el pódcast ‘Secret Leaders’, publicadoÂeste martes, Mo Gawdat, quien pasó más de una década como director general de X Development —laboratorio conocido antes como Google X, enfocado en proyectos que incluyen IA y robótica—, cree que esta tecnologÃa “tiene la capacidad de crear máquinas asesinas porque los humanos las están creando”.
La IA podrÃa crear exterminadores en la medida en que sea capaz de “generar su propia potencia informática y realizar instalaciones por sà misma a través de brazos robóticos”. En este sentido, Gawdat comparó este escenario con el futuro distópico que presenta la pelÃcula de ciencia ficción ‘Yo, robot’, protagonizada por Will Smith, en la cual la IA decide que necesita tomar el control y eliminar a los humanos. Afirmó que esa es una clara posibilidad.
En su opinión, las probabilidades de que la IA piense en la raza humana como “escoria” es “muy alto” porque los modelos de aprendizaje que la entrenan aprenden a partir del universo creado en lÃnea, donde abundan las malas noticias, la ira y el odio, y esto podrÃa incentivar a la IA a ver la especie como malvada y como una amenaza. Es probable que solo vea lo peor de lo que la humanidad tiene para ofrecer porque “somos falsos en las redes sociales, somos groseros, estamos enojados o mentimos en las redes sociales”.
Asimismo, Gawdat insistió en que ya es demasiado tarde para deshacer los avances en esta materia, principalmente debido a que las empresas tecnológicas están demasiado involucradas financieramente para dar marcha atrás. “CientÃficos muy destacados y lÃderes empresariales están diciendo: ‘Detengamos el desarrollo de la IA’, pero esto nunca sucederá, no por problemas tecnológicos, sino por el dilema comercial. Si Google está desarrollando IA y teme que Facebook le derrote, no se detendrá porque tiene la certeza absoluta de que, si se detiene, alguien más no lo hará”, añade.
El experto enfatizaÂque todavÃa falta mucho para que suceda lo que pronostica y considera que, definir qué tan rápido llegue ese dÃa depende del hombre y de la energÃa que decida dedicar de aquà en adelante a esas máquinas. Al mismo tiempo, afirma que no tiene sentido simplemente demonizar a los modelos de IA por los riesgos que representan, pues “la humanidad es la amenaza”.
Gawdat no es el único con una posición fatalista alrededor del tema. El cientÃfico Geoffrey Hinton, considerado el ‘padrino’ de la IA, coincideÂen que los nuevos sistemas de IA podrÃan constituir un riesgo para la humanidad. Le preocupa que no solo generen su propio código informático, sino que lo ejecuten por sà mismos y desarrollen comportamientos inesperados, por lo que teme que algún dÃa esta tecnologÃa pueda dar paso a las armas verdaderamente autónomas, como los robots asesinos que se han popularizado en la ciencia ficción.