Alrededor de 130 personas de más de una veintena de países, desde políticos influyentes hasta ejecutivos de la élite empresarial y académicos, se reúnen del 18 al 21 de mayo en Lisboa, Portugal, para participar en el 63.° encuentro anual del Club Bilderberg.
Cada año, este selecto grupo, fundado en 1954, se reúne para sostener debates informales sobre temas vinculados con las relaciones internacionales, la economía y el comercio global, entre otras cuestiones de actualidad.
Durante esta edición, la inteligencia artificial (IA) es uno de los puntos más importantes a discutir y probablemente el que más expectativas ha causado.
Asimismo, los asistentes tratan sobre asuntos relacionados con la transición energética y el sistema financiero internacional, así como el conflicto en Ucrania, la influencia de potencias como China y Rusia, el papel de la OTAN y el liderazgo mundial de EE.UU.
Participantes de élite
Entre los participantes de más alto perfil que asisten a la reunión hay representantes de gigantes tecnológicos como Satya Nadella, director ejecutivo de Microsoft; Eric Schmidt, expresidente ejecutivo de Google, y Sam Altman, consejero delegado de OpenAI. Asimismo, cuenta con delegados de entidades financieras globales como Goldman Sachs o el Banco de Inglaterra.
En cuanto a las figuras políticas, se encuentran el secretario general de la OTAN, Jens Stoltenberg; el vicepresidente de la Comisión Europea, Josep Borrell, y la presidenta del Parlamento Europeo, Roberta Metsola.
El Club Bilderberg es considerado como una de las organizaciones no gubernamentales más poderosas e influyentes del mundo. Debido a la sensibilidad de los temas que se abordan en su seno, las conclusiones de sus discusiones nunca se hacen públicas y los debates están rodeados de un alto secretismo.
“La reunión de Bilderberg es un foro de debates informales sobre grandes temas. Las reuniones se celebran bajo la Regla de la Casa Chatham, que establece que los participantes son libres de utilizar la información recibida, pero no se puede revelar ni la identidad ni la afiliación del orador u oradores ni de ningún otro participante”, dijeron los organizadores en un comunicadode prensa este jueves.
Microsoft advierte que ChatGPT-4 da muestras de razonamiento humano
Investigadores de Microsoft que analizaron GPT-4, el modelo de inteligencia artificial (IA) de lenguaje natural que da soporte a ChatGPT de OpenAI, aseguran que refleja cierta conciencia y razonamiento humanos en sus respuestas a diferentes tareas propuestas. Para arribar a esta conclusión estuvieron trabajando durante meses con esa tecnología, en pruebas con imágenes, textos y diversos temas de estudio.
En un informe publicadorecientemente en el servicio de preimpresión arXiv, que aún no ha sido sometido a revisión por pares, los investigadores argumentaron que el sistema está a un paso de la inteligencia artificial general (AGI, por su siglas en inglés). El término designa a un sistema o modelo tecnológico que sería capaz de mostrar comprensión o razonamiento similar al de los humanos.
Los autores del estudio le pidieron al GPT-4 que solucionara ciertos problemas o acertijos para forzar la capacidad de razonamiento del modelo de lenguaje natural. Por ejemplo, que explicara cómo se podrían apilar de manera estable varios objetos como “un libro, nueve huevos, un ordenador portátil, una botella y un clavo”. La respuesta rápida y correcta sorprendió a los expertos.
La IA les sugirió que colocaran “el ordenador portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba. El ordenador encajaría perfectamente dentro de los límites del libro y los huevos, y su superficie plana y rígida proporcionaría una plataforma estable para la siguiente capa“. Otra de las pruebas que le solicitaron a la IA fue un ejercicio matemático en el que mostrara, mediante una rima, que hay infinitos números primos. La respuesta fue igualmente ingeniosa y los dejó perplejos.
“¿Cosas que pensé que no sería capaz de hacer? Ciertamente, fue capaz de hacer muchas de ellas, si no la mayoría”, comentóa The New York Times Sébastien Bubeck, exprofesor de la Universidad de Princeton, EE.UU., quien dirigió el estudio.
Expertos en desacuerdo
Sin embargo, Maarten Sap, investigador y profesor de la Universidad Carnegie Mellon, EE.UU., considera el informé científico de Microsoft como una maniobra de relaciones públicas. “Literalmente, reconocen en la introducción de su artículo que su enfoque es subjetivo e informal y que puede no satisfacer los rigurosos estándares de la evaluación científica“, subrayó.
Otros expertos en inteligencia artificial que rechazan la idea de estar ante una AGI, consideran que sistemas como GPT-4 son sin duda poderosos, pero no está claro que el texto generado sea el resultado de algo así como el razonamiento humano o el sentido común.
Afirman también que, al estar ante un sistema o máquina compleja cuyo funcionamiento es difícil de comprender, tanto expertos como usuarios sin conocimientos sobre el tema tienden a crear una idea errónea de la tecnología. “Cuando vemos un sistema o máquina complicado, lo antropomorfizamos”, señaló Alison Gopnik, profesora de psicología de la Universidad de California en Berkeley, EE.UU.
Apple habría restringido a sus empleados el uso de ChatGPT
Este jueves se reportóque la compañía Apple, que fabrica dispositivos inteligentes como iPhones y iPads, mantiene restringido para sus empleados el uso de ChatGPT. En un documento al que tuvo acceso The Wall Street Journal, se menciona que Apple está desarrollando su propia tecnología de inteligencia artificial (IA), similar a ChatGPT, pero le preocupa que sus trabajadores puedan divulgar datos confidenciales, incluso inconscientemente.
La compañía teme que los mecanismos de recopilación de información que utiliza para retroalimentar y entrenar su modelo de IA, que a su vez están supervisados por moderadores, puedan resultar en vulnerabilidades de seguridad para información sensible de Apple. En el documento también se afirma que la empresa advirtió a sus empleados contra el uso del asistente de programación de inteligencia artificial Copilot, de GitHub. Mark Gurman, corresponsal en jefe de Bloomberg, escribióen un tuit que considera que ChatGPT ha estado durante meses en la lista de software restringido de Apple.
Otras compañías tecnológicas también han prohibido o limitado el uso de este modelo de IA a sus empleados. La empresa surcoreana Samsung Electronics prohibióa sus empleados el uso en el trabajo de herramientas basadas en inteligencia artificial generativa, como ChatGPT, al descubrir que un código confidencial fue cargado accidentalmente en la plataforma.
Se anuncióeste jueves que la herramienta ChatGPT, de OpenAI, está disponible para dispositivos con iOS.
Exejecutivo de Google advierte de que la IA podría ver a los humanos como “escoria” y crear “máquinas asesinas”
Un exejecutivo de Google advirtió sobre los peligros de la inteligencia artificial (IA) y aseguró que las máquinas impulsadas por esta podrían llegar a ver a los humanos como “escoria” e incluso pensar en conspirar para acabar con estos, recogeel periódico New York Post.
Hablando para el pódcast ‘Secret Leaders’, publicadoeste martes, Mo Gawdat, quien pasó más de una década como director general de X Development —laboratorio conocido antes como Google X, enfocado en proyectos que incluyen IA y robótica—, cree que esta tecnología “tiene la capacidad de crear máquinas asesinas porque los humanos las están creando”.
La IA podría crear exterminadores en la medida en que sea capaz de “generar su propia potencia informática y realizar instalaciones por sí misma a través de brazos robóticos”. En este sentido, Gawdat comparó este escenario con el futuro distópico que presenta la película de ciencia ficción ‘Yo, robot’, protagonizada por Will Smith, en la cual la IA decide que necesita tomar el control y eliminar a los humanos. Afirmó que esa es una clara posibilidad.
En su opinión, las probabilidades de que la IA piense en la raza humana como “escoria” es “muy alto” porque los modelos de aprendizaje que la entrenan aprenden a partir del universo creado en línea, donde abundan las malas noticias, la ira y el odio, y esto podría incentivar a la IA a ver la especie como malvada y como una amenaza. Es probable que solo vea lo peor de lo que la humanidad tiene para ofrecer porque “somos falsos en las redes sociales, somos groseros, estamos enojados o mentimos en las redes sociales”.
Asimismo, Gawdat insistió en que ya es demasiado tarde para deshacer los avances en esta materia, principalmente debido a que las empresas tecnológicas están demasiado involucradas financieramente para dar marcha atrás. “Científicos muy destacados y líderes empresariales están diciendo: ‘Detengamos el desarrollo de la IA’, pero esto nunca sucederá, no por problemas tecnológicos, sino por el dilema comercial. Si Google está desarrollando IA y teme que Facebook le derrote, no se detendrá porque tiene la certeza absoluta de que, si se detiene, alguien más no lo hará”, añade.
El experto enfatizaque todavía falta mucho para que suceda lo que pronostica y considera que, definir qué tan rápido llegue ese día depende del hombre y de la energía que decida dedicar de aquí en adelante a esas máquinas. Al mismo tiempo, afirma que no tiene sentido simplemente demonizar a los modelos de IA por los riesgos que representan, pues “la humanidad es la amenaza”.
Gawdat no es el único con una posición fatalista alrededor del tema. El científico Geoffrey Hinton, considerado el ‘padrino’ de la IA, coincideen que los nuevos sistemas de IA podrían constituir un riesgo para la humanidad. Le preocupa que no solo generen su propio código informático, sino que lo ejecuten por sí mismos y desarrollen comportamientos inesperados, por lo que teme que algún día esta tecnología pueda dar paso a las armas verdaderamente autónomas, como los robots asesinos que se han popularizado en la ciencia ficción.