PORTAL IMPULSADO POR LAS EMPRESAS RESPONSABLES:

- Advertisement -
NoticiasRSECuestionamientos de la Inteligencia Artificial; ética en la tecnología

Cuestionamientos de la Inteligencia Artificial; ética en la tecnología

Los avances de la tecnología y la Inteligencia Artificial en los últimos años han sido sensacionales. Cada vez vemos inventos y avances potenciales que podrían tomar un rumbo benéfico en muchos ámbitos como en la educación, en el ambiente, en la industria automotriz y hasta en la medicina.

Aunque este avance atraerá consecuencias positivas, consumidores, empleados y ciudadanos están preocupados por la cuestión ética de la inteligencia artificial, tanto que desean alguna forma de regulación.

Cuestionamientos de la Inteligencia Artificial; ética en la tecnología

Utilizar la Inteligencia Artificial en robots atrae beneficios, sin embargo, ¿cómo sabemos que las decisiones que tomen los androides serán buenas o malas? ¿cómo y para quién trabajarán? Estas son algunas preguntas y cuestionamientos que gobiernos, empresas y la sociedad se está haciendo ante la llegada de la IA.

De acuerdo con un estudio realizado por el Instituto de investigación de Caphemini, el uso ético de la Inteligencia Artificial es clave para ganarse la confianza de los consumidores. De hecho, más de las tres cuartas partes (76%) de ellos considera que debería haber más regulación sobre el uso de la IA por parte de las empresas.

Cada vez más empresas se están dando cuenta de la importancia de la ética en la tecnología, y es que a pesar de que los robots estarán programados con un algoritmo, la duda sobre sus decisiones persiste. Muchos quieren evitar que estos robots sean machistas, racistas y hasta xenófobos.

El 51% de los directivos considera que es importante garantizar que los sistemas sean éticos y transparentes. Además, las empresas están tomando medidas cuando detectan usos cuestionables de IA.

Según el informe, un 41% de altos ejecutivos afirma haber abandonado o retirado una solución de Inteligencia Artificial cuando se han planteado inquietudes éticas.

Visión 2030

En 2030 se calcula que la Inteligencia Artificial moverá cerca de 15 mil millones de dólares por ello es importante saber a quiénes les servirán estas tecnologías hablando de una medición moral y ética, en donde los desarrolladores y usuarios aprendan a lidiar con decisiones tomadas por por algoritmos que a final de cuenta son creados por seres humanos.

Según el análisis de Government, Artificial Intelligence, Readiness Index 2019, realizado por Oxford Insights, da cuenta de los riesgos y las oportunidades que se están presentando ante los desarrollos tecnológicos. Dice que al ser elaborados o diseñados por seres humanos corren el riesgo de estar manipulados con decisiones de sus creadores, bajo el esquema de lo que les parece bien o mal a ellos.

«La llamada cuarta revolución industrial, no solo no cosecharán los beneficios potenciales de la IA, sino que también existe el peligro de que la implementación desigual ensancha las desigualdades globales”.

Se trata de un reto importante ya que los algoritmos en las tecnologías pueden de alguna manera «discriminar».

«Por ejemplo, cuando utilizas un sistema de Inteligencia Artificial (para predecir qué tan exitosa será una persona que estás considerando para contratar, si tu alimentas este sistema, si lo entrenas con esta información histórica donde haya habido discriminación por ejemplo hacia las mujeres, ese sistema lo que va a hacer es captar lo que se hacía en el pasado y lo que va a hacer será justo es«, detalla Rafael Ramírez de Alba López, profesor del IPADE Business School, quien dice que los riesgos de este tipo de implementaciones deben ser ordenados y balanceados ara que no existan sesgos de inequidad y hasta de desigualdad social.

Uno de los grandes retos a los que las empresas desarrolladoras de tecnología se enfrentan es que se requiere que quienes diseñen los algoritmos con los que se trabaja por ejemplo en la Inteligencia Artificial, sean personas diversas para que en todo momento se evite la discriminación y esta tecnología esté dotada de mayores elementos predictivos.

«A veces inconscientemente estás perpetuando esa discriminación porque a veces nos podemos confundir y pensar que estos sistemas son totalmente objetivos y que por lo tanto no pueden discriminar, depende de la información con la que entrenes a los algoritmos y los resultados que te van a dar, entonces si tu tienes discriminación antes van a tener discriminación y peor aun, no te vas a dar cuenta que lo estás haciendo”.

Roboética

La roboética es el subcampo de la ética aplicada que estudia las implicaciones positivas y negativas de la robótica para los individuos y la sociedad, con el fin de inspirar el diseño de los llamados robots inteligentes/autónomos y evitar su mal uso contra la humanidad. Se contemplan tres líneas de importancia o urgencia decreciente: adaptar la ética humana a la robótica, incrustar un código moral en los robots mismos, y pensar qué ética surgiría de una posible conciencia futura de los robots.

En cuanto a la regulación, instituciones como el Parlamento Europeo, el South Korean Robot Ethics Charter, la IEEE Standards Association o la Standards Institution de Gran Bretaña están elaborando normativas y estándares para los diseñadores, programadores, y usuarios de robots.

En 2017 se realizó un Código Ético de Conducta en el cuál hay un apartado titulado: Guía Ética para el uso responsable de la Inteligencia Artificial, ahí se escribieron los estándares morales dirigidos a humanos y establece los siguiente:

  • Se debe asegurar que la IA está centrada en el ser humano.
  • Se debe prestar atención a los grupos vulnerables, como los menores de edad o las personas con discapacidades.
  • Debe respetar los derechos fundamentales y la regulación aplicable.
  • Debe ser técnicamente robusta y fiable.
  • Debe funcionar con transparencia.
  • No debe restringir la libertad humana.
Asociación sobre Inteligencia Artificial

La Asociación sobre Inteligencia Artificial fue creada por Elon Musk y Sam Altman con la finalidad de invitar a los líderes tecnológicos a identificar dilemas éticos y prejuicios.

Su objetivo primordial es establecerlas reglas, basadas en un marco de comportamiento moral, donde la Inteligencia Artificial pueda desarrollarse en representación de la humanidad.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

PLATIQUEMOS EN REDES SOCIALES

Lo más reciente

DEBES LEER

TE PUEDE INTERESAR