Un grupo de expertos y desarrolladores de inteligencia artificial (IA) que solían trabajar para OpenAI y Google adviertenque la tecnología que ayudaron a encabezar es una grave amenaza para la humanidad.

Aunque todavía dicen que “creen en el potencial de la tecnología de IA para ofrecer beneficios sin precedentes a la humanidad”, los autores de un artículo titulado “Un derecho a advertir sobre la inteligencia artificial avanzada” dicen que también existen “riesgos graves”.

“Estos riesgos van desde un mayor afianzamiento de las desigualdades existentes, hasta la manipulación y la desinformación, pasando por la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana”, escriben.

“Las propias empresas de IA han reconocido estos riesgos, al igual que los gobiernos de todo el mundo y otros expertos en IA”, continúan, citando todo su trabajo con hipervínculos a lo largo del artículo.

Con “orientación suficiente de la comunidad científica, los formuladores de políticas y el público en general, estos expertos tienen la esperanza de que se pueda controlar la IA en beneficio de la humanidad. Al mismo tiempo, es poco probable que esa orientación llegue alguna vez en función de la forma en que funciona el sistema”. .

“Las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva”, señalan los autores, “y no creemos que las estructuras personalizadas de gobierno corporativo sean suficientes para cambiar esto”.

(Relacionado: ¿Se enteró de la demanda delNew York Timescontra Microsoft y OpenAI por infracción de derechos de autor de IA?)

Aunque nunca lo dirán públicamente, las empresas de inteligencia artificial como OpenAI y Google, que ejecutan un espeluznante programa de inteligencia artificial llamado “DeepMind”, conocen muy bien los graves riesgos que implica esta tecnología. Sin embargo, es demasiado rentable para ellos como para detenerse.

Estamos construyendo la infraestructura de la libertad humana y empoderando a las personas para que estén informadas, saludables y conscientes. Explore nuestra plataforma de libertad de expresión Brighteon.io descentralizada, peer-to-peer y sin censuraaquí . Conozca nuestras herramientas de IA generativa descargables y gratuitas enBrighteon.AI . Cada compra enHealthRangerStore.com ayuda a financiar nuestros esfuerzos por crear y compartir más herramientas para empoderar a la humanidad con conocimiento y abundancia.

Tal como están las cosas actualmente, existen muy pocos requisitos legales para que las empresas de IA revelen al gobierno lo que saben sobre las tecnologías que están desarrollando. Aún peores son los requisitos de divulgación pública, que prácticamente no existen.

“No creemos que se pueda confiar en que todos lo compartirán voluntariamente”, advierten los autores.

“Mientras no exista una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores se encuentran entre las pocas personas que pueden exigirles cuentas ante el público. Sin embargo, amplios acuerdos de confidencialidad nos impiden expresar nuestras preocupaciones, excepto a las mismas empresas que pueden no abordaremos estos problemas”.

En cuanto a las protecciones existentes para los denunciantes, éstas también son insuficientes porque se centran en actividades ilegales, y no hay nada ilegal, para bien o para mal, en desarrollar sistemas avanzados de inteligencia artificial capaces de controlar el mundo.

Muchos de los riesgos conocidos de la tecnología de IA aún no están regulados, y posiblemente nunca lo estén de manera formidable. Esto significa que existe un fuerte incentivo para que las empresas de IA tomen represalias contra cualquiera que se presente para intentar decir la fea verdad sobre la IA.

Aun así, los autores y firmantes del artículo “Derecho a advertir” hacen un llamado a todas las empresas de inteligencia artificial de todo el mundo a aceptar voluntariamente una serie de compromisos y principios, incluida la promesa de nunca celebrar ni hacer cumplir ningún acuerdo que prohíba el “menosprecio” o críticas a su trabajo de IA.

Los autores también quieren que las empresas de IA:

– Permitir que los empleados, tanto actuales como anteriores, expresen de forma anónima sus inquietudes sobre la IA a los jefes de la empresa.

– Apoyar una cultura de crítica abierta a la IA.

– No tomar represalias contra empleados actuales y anteriores que compartan públicamente lo que saben sobre la IA.

Los firmantes del artículo incluyen:

Jacob Hilton, anteriormente OpenAI

Daniel Kokotajlo, anteriormente OpenAI

Ramana Kumar, anteriormente Google DeepMind

Neel Nanda, actualmente Google DeepMind, anteriormente Anthropic

William Saunders, anteriormente OpenAI

Carroll Wainwright, anteriormente OpenAI

Daniel Ziegler, anteriormente OpenAI

Anónimo, actualmente OpenAI

También hubo seis firmantes anónimos, todos los cuales solían trabajar para OpenAI.

Yoshua Bengio, Geoffrey Hinton y Stuart Russell también respaldaron el llamado a la acción “Derecho a advertir”.

No importa cómo se mire, la IA es una receta para el desastre humano. Obtenga más información enFutureTech.news .

Las fuentes de este artículo incluyen:

DerechoAWarn.ai

NaturalNews.com

By Saruman