Entendiendo la Responsabilidad Social

16 preguntas incómodas pero responsables para los amantes de la IA

16 preguntas incómodas pero responsables para los amantes de la IA

Echa ojo al libro sobre las nueve compañías de tecnología gigantes.

Solo nueve compañías de tecnología gigantes en los Estados Unidos y China están detrás de la gran mayoría de los avances en inteligencia artificial en todo el mundo.

En su nuevo libro, The Big Nine: How the Tech Titans and Their Thinking Machines Could Warp Humanity (Los nueve grandes: Cómo los titanes tecnológicos y sus máquinas de pensamiento podrían deformar a la humanidad), Amy Webb prevé tres futuros posibles, que van desde optimistas a apocalípticos, que podrían resultar de las acciones que tomemos: o no tomar – para controlar el desarrollo de la inteligencia artificial (IA) y dar forma a su impacto global.

Webb presenta una serie de preguntas incómodas pero responsables para los amantes de la IA.

Las reglas, el algoritmo, por el cual cada cultura, sociedad y nación viven y han vivido, siempre fueron creadas por unas pocas personas.

Democracia, comunismo, socialismo, religión, veganismo, nativismo, colonialismo: son constructos que hemos desarrollado a lo largo de la historia para ayudar a guiar nuestras decisiones. Incluso en los mejores casos, no están preparados para el futuro.

Las fuerzas tecnológicas, sociales y económicas siempre intervienen y nos hacen adaptarnos.

Preguntas incómodas pero responsables para los amantes de la IA

Sabiendo que no podemos escribir un conjunto de estrictos mandamientos a seguir, ¿deberíamos, en cambio, centrar nuestra atención en los humanos que construyen los sistemas? Estas personas, las tribus de la IA deben hacerse estas preguntas incómodas pero responsables.

Preguntas incómodas pero responsables para los amantes de la IA

  1. ¿Cuál es nuestra motivación para la IA? ¿Está alineado con los mejores intereses a largo plazo de la humanidad?
  2. ¿Cuáles son nuestros propios sesgos? ¿Qué ideas, experiencias y valores no hemos incluido en nuestra tribu? ¿A quién hemos pasado por alto?
  3. ¿Hemos incluido personas diferentes a nosotros mismos con el propósito de hacer el futuro de la IA mejor, o simplemente hemos incluido la diversidad en nuestro equipo para cumplir con ciertas cuotas?
  4. ¿Cómo podemos asegurarnos de que nuestro comportamiento sea inclusivo?
  5. ¿Cómo son las implicaciones tecnológicas, económicas y sociales de la IA entendido por los involucrados en su creación?
  6. ¿Qué derechos fundamentales deberíamos tener para interrogar los conjuntos de datos, algoritmos y procesos que se utilizan para tomar decisiones en nuestro nombre?
  7. ¿Quién llega a definir el valor de la vida humana? ¿Contra qué está siendo pesado ese valor?
  8. ¿Cuándo y por qué los que están en las tribus de la IA sienten que es su responsabilidad abordar las implicaciones sociales de la IA?
  9. ¿El liderazgo de nuestra organización y nuestro IA y las tribus reflejan diferentes tipos de personas?
  10. ¿Qué papel desempeñan los que comercializan la IA en abordar las implicaciones sociales de la IA?
  11. ¿Debemos continuar comparando la IA al pensamiento humano, o es mejor para nosotros categorizarlo como algo diferente?
  12. ¿Está bien construir la IA que reconoce y responde a la emoción humana?
  13. ¿Está bien hacer que los sistemas de IA capaces de imitar la emoción humana, especialmente si aprendemos de nosotros en tiempo real?
  14. ¿Cuál es el punto aceptable en el que todos estamos bien con la IA evolucionando sin humanos directamente en el bucle?
  15. ¿Bajo qué circunstancias podría la IA simular y experimentar emociones humanas comunes? ¿Qué pasa con el dolor, la pérdida y la soledad? ¿Estamos bien causando ese sufrimiento?
  16. ¿Estamos desarrollando la IA para buscar una comprensión más profunda de nosotros mismos? ¿Podemos usar la IA para ayudar a la humanidad a vivir una vida más examinada?

Reflexiones sobre las grandes empresas tecnológicas

Las nueve grandes compañías tecnológicas, seis estadounidenses y tres chinas son abrumadoramente responsables del futuro de la inteligencia artificial.

Preguntas incómodas pero responsables para los amantes de la IA - libro The Big Nine

En los Estados Unidos («G-MAFIA»):

En China (BAT):

G-MAFIA ha comenzado a abordar el problema de los principios rectores a través de varios grupos de investigación y estudio

Dentro de Microsoft hay un equipo llamado FATE: por imparcialidad, responsabilidad, transparencia y ética en la IA.

  • A raíz del escándalo de Cambridge Analytica, Facebook lanzó un equipo de ética que estaba desarrollando software para asegurarse de que los sistemas de la IA evitan el sesgo.
  • DeepMind creó un equipo de ética y sociedad.
  • IBM publica regularmente sobre ética y la IA.
  • A raíz de un escándalo en Baidu, el motor de búsqueda dio prioridad a los reclamos médicos engañosos de un hospital dirigido por militares, donde un tratamiento resultó en la muerte de un estudiante de 21 años de edad, el CEO Robin Baidu admitió que los empleados habían cometido compromisos en aras del crecimiento de las ganancias de Baidu y prometió centrarse en la ética en el futuro.

The Big Nine produce estudios de ética y documentos técnicos, reúne a expertos para hablar sobre ética y alberga paneles sobre ética, pero ese esfuerzo no está lo suficientemente relacionado con las operaciones diarias de los diversos equipos que trabajan en la IA.

Los sistemas de la IA de The Big Nine están accediendo cada vez más a nuestros datos del mundo real para crear productos que muestren valor comercial. Los ciclos de desarrollo se están acelerando para seguir el ritmo de las expectativas de los inversores.

Hemos estado dispuestos a participar en un futuro que se está creando rápidamente y sin responder primero todas estas preguntas incómodas pero responsables. Como los sistemas de la IA avanzan y más de la vida cotidiana se automatiza, menos control tenemos realmente sobre las decisiones que se toman sobre y para nosotros.

¿Qué te parecen estas preguntas incómodas pero responsables?

Acerca del autor

Daniela Lazovska

Dejar un comentario


By submitting this form, you are consenting to receive marketing emails from: Expok, Caballocalco No. 42 Int 28, CDMX, 04100, http://www.expok.com.mx. You can revoke your consent to receive emails at any time by using the SafeUnsubscribe® link, found at the bottom of every email. Emails are serviced by Constant Contact