Un ex ejecutivo de Google ha advertido que la élite globalista está utilizando actualmente la inteligencia artificial (IA) para desarrollar una nueva pandemia más letal que se desatará para despoblar el mundo.

Mustafa Suleyman, quien anteriormente se desempeñó como ejecutivo líder en la división de inteligencia artificial de Google, DeepMind, dice que está profundamente preocupado de que los avances desenfrenados en la inteligencia artificial puedan conducir a amenazas biológicas nuevas y más letales.

Durante una entrevista en el podcast The Diary of a CEO  , Suleyman advirtió: “El escenario más oscuro es que la gente experimente con patógenos, patógenos sintéticos diseñados que podrían terminar siendo más transmisibles, accidental o intencionalmente”.

Suleyman también dijo que estos patógenos diseñados sintéticamente, resultantes de investigaciones impulsadas por la IA, “pueden propagarse más rápido o [ser] más letales… Causan más daño o potencialmente matan, como una pandemia”.

Thefederalistpapers.org informa: Enfatizó la urgente necesidad de una regulación más estricta en torno al software de IA.

Planteando una preocupación hipotética, aunque plausible, Suleyman compartió su “mayor temor” de que un “niño en Rusia” pudiera diseñar genéticamente un nuevo patógeno que podría desencadenar una pandemia que sea “más letal” que cualquier cosa que el mundo haya enfrentado hasta ahora, dentro del los próximos cinco años.

Reconociendo la inmediatez de esta amenaza potencial, dijo: “Ahí es donde necesitamos contención. Tenemos que limitar el acceso a las herramientas y al conocimiento para llevar a cabo experimentos de alto riesgo”.

Mientras la industria tecnológica converge en Washington el 13 de septiembre para una cumbre sobre inteligencia artificial, encabezada por el líder de la mayoría del senador Chuck Schumer, la voz de Suleyman resuena con un sentido de urgencia.

“Nosotros en la industria que estamos más cerca del trabajo podemos ver un lugar en cinco o diez años donde podría salirse de control y tenemos que controlarlo ahora”, dijo.

“Realmente estamos experimentando con materiales peligrosos. El ántrax no es algo que se pueda comprar en Internet y con lo que se pueda experimentar libremente”, continuó. “Tenemos que restringir el acceso a esas cosas”.

“Tenemos que restringir el acceso al software que ejecuta los modelos, los entornos de nube y, desde el punto de vista de la biología, significa restringir el acceso a algunas de las sustancias”, añadió Suleyman.

Sus declaraciones reflejan  un sentimiento más amplio dentro de la comunidad tecnológica. A principios de marzo, una serie de magnates de la tecnología firmaron una carta abierta en la que abogaban por una moratoria de seis meses sobre el entrenamiento en IA.

Elon Musk, director ejecutivo de Tesla y SpaceX, también compartió preocupaciones similares, estableciendo paralelismos con narrativas ficticias y advirtiendo que la IA sin control podría volverse hostil, al igual que los robots de la popular serie de películas “Terminator”.

Suleyman finalizó con una nota contemplativa y afirmó: “Nunca antes, en la invención de una tecnología, hemos dicho de manera proactiva que debemos ir lentamente”.

Primero debemos asegurarnos de que esto no cause daño”.

“Ese es un momento sin precedentes”, añadió. “Ninguna otra tecnología ha hecho eso”.

 

 

Por Saruman