Los directores de tecnologías de muchas empresas han estado hablando sobre el futuro de la Inteligencia Artificial (IA) antes de que la “COVID-19”, como término, entrara el léxico de todos.
Hasta entonces, algunos tenían cientos de experimentos de IA en marcha, pero solo era un puñado de modelos en los distintos procesos de las compañías, cosa que ahora lamentan.
Y es que, a medida que todo el mundo se enfrenta a la pandemia global y a un futuro lleno de desafíos (así como de posibilidades), la promesa de implementar la Inteligencia Artificial a escala nunca ha sido tan grande.
Ritika Gunnar, vicepresidenta de Laboratorios de expertos y Aprendizaje de Datos e Inteligencia Artificial de IBM, ha puntualizado que la confianza, o la falta de esta, sigue siendo el mayor obstáculo para el despliegue generalizado de la IA.
Con su equipo, de más de mil 200 expertos altamente técnicos, colabora con los clientes en todo el mundo dándole prioridad a tres preguntas claves: ¿Mi IA es justa? ¿Es mi IA explicable? ¿Está protegida mi IA?
“Hacemos estas preguntas a lo largo del ciclo de vida de la IA, desde la preparación de datos y la creación de modelos, hasta la implementación de esos modelos y su gestión a medida que evolucionan”.
Señaló que una arquitectura de nube híbrida es fundamental para el enfoque de extremo a extremo, debido a que los datos de muchas organizaciones se encuentran en múltiples ubicaciones.
La correcta implementación de IA
Gunnar, para garantizar una Inteligencia Artificial justa, cree que se debe asegurar que los datos (sobre los que se basan los modelos) sean justos y que los modelos en sí mismos estén diseñados para detectar y mitigar el sesgo a medida que se introducen nuevos datos.
Además, añadió que si no se puede explicar por qué la IA está tomando ciertas decisiones, “el temor a una ‘caja negra’ de algoritmos misteriosos puede hacer que sea imposible generar confianza”.
“En industrias como los servicios financieros, la atención médica y los seguros, existe un enorme potencial para usar la Inteligencia Artificial a escala, pero implica el uso de datos altamente sensibles para tomar decisiones que impactan significativamente en la vida de las personas”.
Entonces, considera fundamental que los clientes comprendan cómo se toman estas decisiones y por qué. La “explicabilidad”, en industrias altamente reguladas, también es importante para la auditoría y el cumplimiento normativo.
Por otro lado, indicó que los ciberataques se han disparado a medida que el distanciamiento social ha aumentado drásticamente el volumen de trabajo y negocios personales que tienen lugar en línea.
Defender los sistemas de IA de ataques maliciosos es, ahora, más complicado que nunca y es fundamental para garantizar la confianza, según lo detallado en su entrada de blog.
Dejó claro que las empresas deben desarrollar su IA con seguridad incorporada desde el principio y, luego, permanecer atentas para garantizar que sus sistemas estén protegidos durante la producción y la implementación.
El potencial de la IA
Ritika Gunnar ha advertido que la IA no es un fin en sí misma y que no existe en oposición a los seres humanos que componen la fuerza laboral. Su potencial, entonces, se desataría cuando forma parte de una aplicación o se incorpora a un flujo de trabajo, y cuando se utiliza para aumentar y amplificar la toma de decisiones humana.
“Garantizar que la IA sea justa, explicable y protegida no se trata de marcar casillas. Es la lente a través de la cual necesitamos ver todo el ciclo de vida de la IA, para establecer esa base fundamental de confianza”.
Los CIO y CEO de todo el mundo, cuando se llegue a este punto concreto, podrán pasar de la experimentación con IA a la transformación impulsada por la IA, dijo la ejecutiva de IBM.