AI está emergiendo como juez, jurado y verdugo. Si rompes las reglas, no habrá piedad ni comprensión humana. La IA es incapaz de la comprensión o las emociones humanas. El castigo será rápido y no habrá apelación u otro recurso para limpiar su nombre. La ciencia ficción se ha ocupado de esto en varias ocasiones, como RoboCop, Judge Dredd y Minority Report. ⁃Editor de TN

 

Podría pensar que una computadora sería un juez imparcial y justo, pero un nuevo estudio encuentra que sería mejor dejar su destino en manos de los humanos. Investigadores del MIT encuentran que la inteligencia artificial (IA) tiende a emitir juicios más estrictos y duros que los humanos cuando se trata de personas que violan las reglas. En pocas palabras, ¡la IA no está dispuesta a dejar que las personas se liberen fácilmente cuando infringen la ley!

Los investigadores han expresado su preocupación de que la IA pueda imponer castigos demasiado severos, dependiendo de la información con la que los científicos la programen. Cuando la IA se programa estrictamente en función de reglas, sin ningún matiz humano, tiende a responder con dureza en comparación con cuando se programa en función de las respuestas humanas.

 

Este estudio, realizado por un equipo del Instituto de Tecnología de Massachusetts, examinó cómo la IA interpretaría las violaciones percibidas de un código determinado. Descubrieron que los datos más efectivos para programar la IA son los datos normativos, donde los humanos han determinado si se ha violado una regla específica . Sin embargo, muchos modelos se programan erróneamente con datos descriptivos, en los que las personas etiquetan los atributos fácticos de una situación y la IA determina si se ha violado un código.

En el estudio, el equipo recopiló imágenes de perros que potencialmente podrían violar una regla de apartamento que prohíbe las razas agresivas en el edificio. Luego se pidió a los grupos que proporcionaran respuestas normativas y descriptivas.

El equipo descriptivo no fue informado sobre la política general sobre perros y se le pidió que identificara si tres elementos fácticos, como la agresión del perro, estaban presentes en la imagen o el texto. Sus respuestas ayudaron a formar juicios. Si un usuario dijo que la foto mostraba a un perro agresivo, se consideró que se había violado la política. Por otro lado, al grupo normativo se le informó sobre las reglas sobre perros agresivos y se le pidió que determinara si cada imagen violaba la regla y, de ser así, por qué.

Los participantes tenían un 20 por ciento más de probabilidades de identificar una violación del código utilizando el método descriptivo en comparación con el normativo. Si los datos descriptivos sobre el comportamiento del perro se hubieran utilizado para programar un modelo de IA , sería más probable que emitiera sanciones severas.

Ampliar estas imprecisiones a escenarios del mundo real podría tener implicaciones sustanciales. Por ejemplo, si se utiliza un modelo descriptivo para predecir si una persona puede cometer el mismo delito más de una vez, puede imponer juicios más severos que un ser humano y dar como resultado montos de fianza más altos o sentencias penales más largas. En consecuencia, los expertos han abogado por una mayor transparencia de los datos, argumentando que comprender cómo se recopilan los datos puede ayudar a determinar sus usos potenciales.

 

“La mayoría de los investigadores de IA/aprendizaje automático asumen que los juicios humanos sobre los datos y las etiquetas están sesgados. Pero nuestros resultados indican un problema más preocupante: estos modelos ni siquiera reproducen juicios humanos ya sesgados porque los datos con los que se están entrenando son defectuosos”, dice Marzyeh Ghassemi, profesora asistente y directora del Healthy ML Group in the Computer. Laboratorio de Ciencias e Inteligencia Artificial (CSAIL), en comunicado universitario .

“La solución es reconocer que si queremos reproducir el juicio humano , solo debemos usar los datos recopilados en ese contexto. De lo contrario, terminaremos con sistemas que imponen moderaciones extremadamente duras, mucho más estrictas que las que impondrían los humanos. Los humanos verían matices o harían distinciones, mientras que estos modelos no lo hacen”, explica Ghassemi.

En el estudio, publicado en Science Advances , el equipo probó tres conjuntos de datos adicionales. Los resultados variaron, desde un aumento del ocho por ciento en la probabilidad de identificar una infracción de las reglas utilizando respuestas descriptivas para una infracción del código de vestimenta, hasta un aumento del 20 por ciento para las imágenes de perros agresivos.

“Quizás la forma en que las personas piensan sobre las violaciones de las reglas difiere de cómo piensan sobre los datos descriptivos. En general, las decisiones normativas tienden a ser más indulgentes”, dice la autora principal Aparna Balagopalan. “Los datos realmente importan. Es crucial alinear el contexto de entrenamiento con el contexto de implementación cuando se entrenan modelos para detectar violaciones de reglas”.

El plan futuro del equipo es investigar el impacto de tener profesionales, como abogados y médicos, participando en el ingreso de datos.

FUENTE

https://www-technocracy.news/

By Saruman