Datta Business Innovation | Qué derechos propone Estados Unidos para los humanos frente a la inteligencia artificial

Qué derechos propone Estados Unidos para los humanos frente a la inteligencia artificial

11 octubre 2022
Compartir: Ícono facebook Ícono linkedin

Ante el crecimiento del uso de la inteligencia artificial, las autoridades en varios países creen que se necesita una regulación, al respecto, la Casa Blanca en Estados Unidos presentó una ‘Declaración de derechos de IA’.

Este plan no es una ley que se deba aplicar directamente sino más bien, una serie de sugerencias que desde distintos sectores ya están debatiendo. Todo esto con el objetivo de crear un marco legal para que las empresas y gobiernos cumplan con ciertos lineamientos en la creación e implementación de esta tecnología.

“Con demasiada frecuencia, estas herramientas se utilizan para limitar nuestras oportunidades e impedir nuestro acceso a recursos o servicios críticos. Los sistemas que supuestamente deben ayudar a la atención de los pacientes han demostrado ser inseguros, ineficaces o parciales” comunicó la Casa Blanca, agregando que algunos algoritmos son usados en decesiones de contratación y crédito que generan desigualdad.

 

Las cinco propuestas para regular la IA

El gobierno norteamericano presentó cinco principios para proteger a los humanos en medio de este panorama digital, basándose en esa brecha que se puede crear y que las personas deben estar primero.

El primero lo llaman ‘Sistemas seguros y efectivos’ y hace énfasis al derecho a la seguridad de los sistemas considerados ineficaces, por lo que se pide que haya un mayor despliegue para identificar riesgos y complicaciones en su implementación, es decir, crear un plan en el que se confirme que es una inteligencia segura y eficaz de usar.

El segundo es ‘Protecciones contra la discriminación algorítmica’. Con este se busca que los sistemas creados no tengan ningún sesgo y tengan siempre una equidad, esto se debe a que hay casos en los que una IA rechaza a alguien por condiciones de raza, etnia, sexo, entre otros.

El tercero es ‘Privacidad de datos’. Este es un tema en el que hacen énfasis en la necesidad de que los creadores y quienes usan la inteligencia artificial deben proteger los datos de las personas y ellas tener el conocimiento de para qué los están entregando.

El cuatro principio se llama ‘Aviso y explicación’ y consiste en que una persona debe ser consiente de que está utilizando un sistema de este tipo, los desarrolladores tendrán que explicar de forma clara en qué consiste el proceso y notificar de cambios.

Finalmente, el quinto es claro en que las personas deberían poder optar por no participar en dichos sistemas y tener acceso a una “consideración humana oportuna” en caso de que un sistema produzca un error.

 

También te puede interesar: Inteligencia artificial de Google ahora tiene un abogado para probar que sí está viva

 

La propuesta recibe criticas

Ante la declaración de la Casa Blanca, desde la Cámara de Comercio de Estados Unidos aseguraron que estos puntos pueden representar un problema la industria tecnológica.

“Hay algunas recomendaciones que si los legisladores las promulgan como reglas, podrían poner trabas a la capacidad de Estados Unidos para competir en el escenario global”, afirmó Jordan Crenshaw, vicepresidente de la organización, que realizará su propia propuesta para 2023.

Estados Unidos no es el primer país que empieza un debate sobre este tema de la regulación de la IA. La Unión Europea ya está en proceso para legislar la Ley de IA, que pondrá límites a estos sistemas, un proceso similar por el que está pasando Brasil desde el año pasado.

 

Empresas prometen que sus robots no serán armas

En un panorama muy similar a este, un grupo de seis empresas de robótica firmó una declaración en la que aseguran que sus productos no se convertirán en armas.

“Nos comprometemos a no armar nuestros robots de propósito general de movilidad avanzada o el software que desarrollamos que permite la robótica avanzada y no apoyaremos a otros para que lo hagan. Cuando sea posible, revisaremos cuidadosamente las aplicaciones previstas de nuestros clientes para evitar el uso potencial de armas”, señalaron las compañías comprometidas en un comunicado.

Quienes firmaron fueron Boston Dynamics, Agility Robotics, ANYbotics, Clearpath Robotics, Open Robotics y Unitree Robotics, todo esto como un mensaje de alerta ante el mal uso que le pueden dar ciertas personas u organizaciones a los proyectos que ellos desarrollan.


Fuente: Infobae

Compartir: Ícono facebook Ícono linkedin
Mundo Ekos
¡Regístrate!
y recibe contenido PREMIUM
SUSCRÍBETE