IA inteligencia artificial
Credit: https://www.publicdomainpictures.net/

El uso de la inteligencia artificial (IA) ha llegado a ser crecientemente prevalente en las empresas, revolucionando la forma en que se adoptan las decisiones en los más variados sectores de la economía. Empresas como YouTube, Amazon, Google y Facebook han aprovechado la IA para personalizar las experiencias de los usuarios, mientras que plataformas como Uber y Lyft la han utilizado para unir los intereses de pasajeros con conductores, determinando incluso el precio de cada viaje. Del mismo modo, los sistemas avanzados de asistencia al conductor de Tesla están contribuyendo gradualmente a un transporte más seguro. Todas estas aplicaciones emplean capacitación en datos basada en algoritmos (“machine learning”) con mínima intervención humana.

Sin desmedro alguno de sus significativos aportes, esta progresiva dependencia de la IA plantea importantes preocupaciones y exigencias morales. Varios incidentes serios han subrayado los desafíos éticos asociados con la adopción de la IA en las operaciones de las empresas. Por ejemplo, la herramienta de reclutamiento impulsada por IA de Amazon demostró sesgos contra las mujeres. El chatbot de Microsoft, Tay, tuvo que ser suspendido debido a comentarios racistas y misóginos. Y los sistemas autónomos de Tesla han estado involucrados en accidentes fatales, hechos que han llevado a reclamaciones por un mayor escrutinio público. En síntesis, las empresas deberán estar atentas a las implicaciones éticas de la IA que utilizan y a desarrollar prácticas de gobierno corporativo para abordarlas responsablemente.

Entre las principales inquietudes éticas que están enfrentando las organizaciones de negocios destacan aspectos tales como: transparencia, privacidad y confianza; sesgos, preferencias y justicia; puestos de trabajo, empleo y automatización. Junto con ellas, la IA plantea interrogantes morales previas fundamentales, donde la autonomía en la toma de decisiones es una de las más desafiantes. La atribución de agencia moral ha estado tradicionalmente reservada para los seres humanos, que poseen racionalidad y libertad. Sin embargo, los sistemas de IA están diseñados precisamente para decidir de forma autónoma. La utilización de vehículos auto conducidos, cuidadores robóticos, armas autónomas y otras tantas aplicaciones, suscita profundas cavilaciones sobre la posible pérdida de control humana. Este asunto deriva hacia una cuestión esencial que requiere estudio y reflexión: ¿hasta qué punto se puede reconocer agencia a la IA y, por consiguiente, concederle atribución moral? Resulta evidente que el desarrollo de la IA está generando la necesidad de replantear los marcos éticos de referencia a que se estaba acostumbrado.

A medida que la IA se integra más en la actividad empresarial y, por esa vía, en la vida de las personas, la dimensión moral asociada a ella va dejando de ser un asunto periférico, para convertirse en esencial. De ahí que, aparejada a su uso se requiera una consideración permanente respecto a los alcances éticos de la interacción entre los seres humanos y la inteligencia artificial.

Álvaro Pezoa Bissières – Director Centro Ética y Sostenibilidad Empresarial. ESE Business School

Director Centro Ética y Sostenibilidad Empresarial ESE Business School

Deja un comentario

Debes ser miembro Red Líbero para poder comentar. Inicia sesión o hazte miembro aquí.