Darwin participa en un debate sobre IA organizado por la Alta Comisión de Canadá

El lunes 15 de abril, en preparación para que Canadá sea el anfitrión de la cumbre del G7 en 2025, la Alto Comisionado de Canadá en el Reino Unido organizó una mesa redonda sobre la adopción de la IA. Esta reunión fue una oportunidad para analizar el uso actual de la inteligencia artificial, cómo se espera que evolucione su uso y qué vacíos existen en la regulación actual de la IA. La mesa redonda tuvo lugar en la Canada House de Londres.

El moderador del debate fue OpenText, una empresa canadiense especializada en gestión de la información y transformación digital. Entre los asistentes se encontraban representantes de empresas y gobiernos tanto del Reino Unido como de Canadá. Darwin participó junto a representantes de instituciones como Shell, Nestlé, la Digital Catapult, el Plan de Pensiones de Canadá y el NHS.

Daniela Petrovic, cofundadora de Darwin, habló en la mesa redonda sobre la participación de Darwin en el uso de la IA para la modelización de seguros. Dijo que fue un placer representar a Darwin en el debate. “Fue un gran honor para Darwin ser invitada a participar y contribuir a informar sobre las políticas globales en el ámbito de la IA”.

Algunos de los temas que surgieron en la mesa redonda y que luego se utilizarán en el debate del G7 son los siguientes:

Preocupaciones por los datos e información

La privacidad de los datos y el intercambio de datos no controlado fueron algunas de las mayores preocupaciones que surgieron en el debate.

Dado que la IA generativa requiere ser entrenada con grandes cantidades de datos para funcionar de manera efectiva, puede que no sea factible inspeccionar todos los datos de entrenamiento antes de introducirlos en el modelo de IA. ¿Qué pasa si datos personales o sensibles terminan en el conjunto de datos? Y si, por error un modelo de IA se entrena con datos sensibles, ¿qué ocurre si alguien solicita esa información al modelo, ya sea un secreto comercial o la dirección de alguien?

En su publicación “How to use AI and personal data appropriately and lawfully”, la Oficina del Comisario de Información recomienda usar la IA solo cuando sea necesario, por motivos de privacidad: “Deberías evaluar si realmente necesitas utilizar la IA en el contexto en el que la vas a implementar. En general, la IA se considera una tecnología de alto riesgo y puede que exista una alternativa más efectiva y que preserve la privacidad”.

Verificación y corrección de los resultados de la IA

La contribución humana seguirá siendo necesaria para aprovechar de manera efectiva la IA.

Es importante reconocer que la IA generativa no es realmente inteligente. Es decir, los modelos de IA actuales no comprenden realmente el contenido que producen. Esto significa que el resultado de la IA puede incluir “alucinaciones”: detalles incorrectos o inventados que parecen reales debido al material utilizado para su entrenamiento.

Debido a esto, no se pueden usar modelos de IA para crear contenido sin supervisión. Si se publica en línea un texto generado por IA sin haberse revisado, puede contener errores y, además, utilizarse para entrenar a otros modelos de IA, Es decir, se podría propagar información falsa. Para evitar este tipo de problemas, una persona deberá revisar y corregir los resultados de la IA y reescribirlos cuando sea necesario.

La IA está aquí para quedarse

La IA ya se está utilizando en muchos entornos corporativos, y ahora que está ampliamente disponible, su introducción es irreversible. Por lo tanto, es lógico que los debates sobre la IA se centren en cómo se puede utilizarla de manera responsable y efectiva, en lugar de preguntarse si debería usarse en absoluto.

De una forma u otra, las instituciones deberán encontrar la manera de operar en un mundo con IA. Incluso si una empresa decide no usar la IA en sí misma, necesitará entender cómo otras personas podrían estar usándola. Este es un tema que también surgió en la conferencia de la ABI a principios de este año: independientemente de si una aseguradora usa la IA o no, deberá estar al tanto de la posibilidad de que las personas utilicen la IA para presentar reclamos fraudulentos, por ejemplo, generando imágenes falsas de artículos dañados.

Si los gobiernos logran encontrar el equilibrio adecuado en la regulación de la IA, y si las personas son capacitadas de manera efectiva en lo que la IA es capaz de hacer y cómo mitigar los riesgos que conlleva, podemos contribuir a garantizar que la inteligencia artificial se utilice como una herramienta beneficiosa en innumerables sectores.

Darwin Innovación es una empresa con sede en Málaga que proporciona servicios relacionados con vehículos autónomos y comunicaciones terrestres y por satélite. Si estás interesado en trabajar con nosotros, puedes echar un vistazo a nuestra página de empleo. Si quieres saber cómo podemos ayudar a su empresa a utilizar vehículos autónomos, contáctanos.

ENLACES A NOTICIAS