BIENVENIDO A RADIO TITANKA | Jueves, 18 de Abril del 2024

EN VIVO

PORTADA  |
TECNOLOGÍA

Cuatro puntos clave para entender la ética de la inteligencia artificial

El 51 % de los ejecutivos considera que es importante garantizar que los sistemas de IA sean éticos y transparentes para brindar la información adecuada que mejore la toma de decisiones.

Cuatro puntos clave para entender la ética de la inteligencia artificial

(Miércoles 2/12/2020).- En 2018, Elaine Herzberg murió en lo que se cree que fue la primera muerte de un peatón a manos de un vehículo autónomo. Este incidente llamó la atención del mundo y planteó preguntas sobre si podíamos confiar en la inteligencia artificial (IA) con algo tan importante como nuestras vidas. Pero, ¿qué significa eso para las organizaciones que buscan explotar esta tecnología?

Muchos expertos de la industria de todo el mundo están demandando lo que se denomina como “IA responsable”, al mismo tiempo que los estudios que salen a la luz recogen que las organizaciones están cada vez más preocupadas por las implicaciones de la IA. De hecho, según un estudio del Instituto de Investigación de CapGemini el 51 por ciento de los ejecutivos mundiales considera que es importante garantizar que los sistemas de IA sean éticos y transparentes.

La IA, especialmente el machine learning, funciona usando inserciones de datos, aprendiendo algo de ellos y, a partir de eso, infiriendo conclusiones para hacer predicciones. Esto plantea la cuestión de cómo juzgamos si una salida o conclusión de un sistema de IA es segura y si sucumbirá o no al sesgo o causará algún daño. Esta es la clave de la ética de la IA.

“Determinar si un resultado es éticamente aceptable puede suscitar desacuerdos razonables. Por ejemplo, en este período de COVID-19, los médicos, políticos y la población pueden estar en desacuerdo sobre la ética en torno a las decisiones de atención médica, como es el priorizar el uso de ventiladores en los jóvenes antes que en la tercera edad. Si los humanos pueden tener dudas sobre cuál es la decisión acertada, ¿cómo puede mejorar esto una IA?”, comenta Jorge Martínez, director regional de OpenText en España y Portugal. 

Si nos centramos en el entorno empresarial, en el que la IA se utiliza para automatizar procesos o mejorar la experiencia del cliente, la ética puede parecer un poco menos importante. Pero, para todas las organizaciones, el propósito principal de la IA debe ser brindar información que mejore la toma de decisiones. Poder confiar y depender de esa información es esencial.

Hay muchas preguntas éticas que se pueden plantear acerca del impacto social de la IA y que afectan a todo tipo de sectores y ámbitos, como es el uso de inteligencia artificial en la salud, los coches autónomos o los beneficios de esta tecnología en la cadena de suministro. Acotando las cuestiones alrededor de la ética de las soluciones de IA que se crean dentro de cualquier entorno empresarial, OpenText hace énfasis en cuatro puntos clave como los prejuicios o sesgos, la responsabilidad y explicabilidad, la transparencia y, finalmente, la certeza en los datos.

El área de la ética que quizás ha recibido mayor atención es el sesgo, cuando los modelos de datos sesgados o los prejuicios de los desarrolladores se infiltran involuntariamente en el sistema de inteligencia artificial, lo cual no sorprende si se considera que hay 188 sesgos cognitivos diferentes. Ya sea un prejuicio inconsciente del creador del sistema o un sesgo integrado en el modelo de datos que éste utiliza, los resultados serán probablemente injustos, discriminatorios o simplemente incorrectos.

Los conceptos de responsabilidad y explicabilidad se comprenden bien en la vida cotidiana. Ser responsable de algo debería poder explicar por qué ha sucedido como ha sucedido. Lo mismo ocurre en el mundo de la IA. Es esencial que cualquier acción que realice la tecnología pueda explicarse y auditarse por completo: tiene que poder rendir cuentas.

Para ser responsable, el sistema de inteligencia artificial debe ser transparente. Sin embargo, muchas soluciones de IA adoptan un enfoque de "caja negra" que no permite la visibilidad de los algoritmos subyacentes. Sin embargo, la nueva generación de soluciones de IA que adoptan el código abierto permite a las organizaciones integrar sus propios algoritmos y comparar la calidad de los mismos con sus propios datos.

Un punto clave en la creación de sistemas de IA es cómo trabaja ésta con los datos, especialmente los personales, que se utilizan para completar sus modelos. El machine learning y el deep learning requieren enormes conjuntos de datos para aprender y mejorar. Cuantos más datos, mejores serán los resultados a lo largo del tiempo. 

Sin embargo, la regulación en torno a la privacidad, como la GDPR, impone nuevos niveles de responsabilidad a las organizaciones sobre cómo capturan, almacenan, usan, comparten y reportan los datos personales que poseen. Se debe saber cómo y por qué se están procesando los datos y los riesgos involucrados.

Incluso si una organización cuenta con un equipo de científicos de datos con experiencia, muchos de los desafíos éticos seguirán siendo relativamente nuevos para ellos, especialmente debido a que la IA es una tecnología que evoluciona continuada y rápidamente y está en pleno auge. 

Una buena práctica para evitar caer en sesgos, ser transparentes y responsables es, dicen en OpenText, establecer un equipo directivo que supervise el uso de la IA a lo largo de toda la empresa, y elaborar un marco ético que describa qué se supone que debe hacer la IA, cómo se debe generar y utilizar y cuáles son los resultados esperados.


Fuente: Revista Muy Interesante 

¿QUÉ OPINAS?

FACEBOOK