Cultura

Fiddler Labs tiene como objetivo eliminar las desigualdades de sesgo de inteligencia artificial a través de la ‘explicabilidad en IA’

Comprender cómo un sistema de inteligencia artificial genera sus predicciones es crucial para evitar sesgos, dice una startup que ha estado desarrollando lo que llama “explicabilidad en IA”.

La solicitud de una persona para un préstamo, por ejemplo, si es rechazada o aprobada por AI, debe analizarse para determinar su imparcialidad.

“De hecho, puede crear un mundo distópico en el que algunas personas obtienen decisiones realmente buenas de sus sistemas y en el que algunas personas quedan fuera”, dijo Krishna Gade (en la foto), cofundador y director ejecutivo de Fiddler Labs Inc.

Los datos de modelado pueden ser antiguos o tener una fuente incorrecta. Eso, entre otras cosas, causa problemas. Gade cree que la naturaleza de caja negra de un motor de inteligencia artificial o aprendizaje automático, donde uno no puede simplemente abrir el código y leerlo como se hace con el software tradicional, necesita herramientas especiales.

Anticipándose al evento AWS Startup Showcase: The Next Big Thing in AI, Security & Life Sciences, que comenzará el 16 de junio. John Walls, anfitrión de theCUBE, el estudio de transmisión en vivo de SiliconANGLE Media, habló con Gade para una conversación especial de CUBE sobre cómo Fiddler pretende eliminar las desigualdades de la IA. (* Divulgación a continuación).

‘Un mundo distópico’

El problema principal es que el motor de IA cambia constantemente en función de lo que se aprende. Está diseñado para hacer eso. Pero, por eso, la IA es un sistema estocástico o probabilístico. En otras palabras, hay algo de aleatoriedad en ello.

“Su rendimiento, sus predicciones pueden cambiar con el tiempo en función de los datos que está recibiendo”, dijo Gade.

Por lo tanto, es necesario sondear, interrogar y averiguar cómo se hacen las predicciones para contrarrestar esa naturaleza no determinista. Es diferente a lo que sucede en el software tradicional, donde cuando comienzas desde el mismo punto, obtienes el mismo resultado cada vez; la IA no hace eso.

“¿Cuándo confías en tus predicciones? ¿Cómo saber si el modelo realmente se está desempeñando de la misma manera en que lo entrenó? ” Preguntó Gade. Tienes que monitorear continuamente el algoritmo, explicó. De esa manera, sabrá si la precisión aumenta o disminuye y, lo que es más importante, si hace malas predicciones, lo que es devastador, en muchos casos para las personas, como las personas cuyos currículums están siendo seleccionados para un trabajo, por ejemplo, que pueden ser rechazados debido a algoritmos deficientes.

El reentrenamiento de la IA puede tener lugar, según sea necesario, antes de que surja la injusticia. No solo es bueno para el usuario final, sino que la reputación de la marca está protegida, junto con el cumplimiento normativo. La empresa de Gade, que se ha asociado con AWS, hace esto. Amazon está buscando crear un ecosistema de tecnologías de inteligencia artificial responsables, y Amazon ha invertido en el negocio de inteligencia artificial de Fiddler.

“Los algoritmos detrás de escena procesan nuestras solicitudes y brindan las experiencias que tenemos. Ahora, cada vez más, estos algoritmos se están convirtiendo en algoritmos basados ​​en IA ”, explicó Gade. Por lo tanto, las diferentes culturas, etnias y géneros deben protegerse de los prejuicios que podrían crear un gran sufrimiento, agregó.

Deriva de datos

Está claro que el rendimiento de los sistemas de inteligencia artificial se deteriora con el tiempo, señaló Gade: un sistema de recomendación en un sitio web sería una buena ilustración: comportamiento, pre-COVID y post-COVID, por ejemplo. ha sido completamente diferente. Gade citó como ejemplo el infame COVID ejecutado en papel higiénico cuando ocurrió el cierre por primera vez. Ese cambio de comportamiento de preparación de la noche a la mañana no sería detectado por un sistema de inteligencia artificial. Por lo tanto, entrenar sistemas de inteligencia artificial, como un sistema de inventario minorista, con datos antiguos no funciona correctamente. A esto se le llama deriva de datos.

LEER  ASÍ FUE COMO GRABAMOS #YOUTUBEREWIND2018 | LOS POLINESIOS

“La cantidad de cosas que la gente está comprando en términos de papel higiénico ha cambiado por completo. Por lo tanto, es posible que su modelo no esté prediciendo con tanta precisión como lo haría ”, dijo Gade.

Instacart fue una empresa de entrega de comestibles que admitió que sus modelos de predicción estaban desviados entre un 65 y un 90% durante los cambios de datos en el período COVID, según Gade.

“Puede detectar estas cosas antes y luego, ya sabe, evitar que su negocio pierda”, agregó, porque las malas recomendaciones afectan negativamente las ventas.

Consideraciones éticas de los algoritmos impulsados ​​por IA

Los datos también deben obtenerse de las fuentes adecuadas. Gade usa la debacle de las tarjetas de crédito de Apple y Goldman Sachs de 2019 como prueba.

“En el mismo hogar, el esposo y la esposa obtenían un límite de crédito de 10 veces la diferencia entre un hombre y una mujer”, afirmó, y agregó que probablemente tenían rangos salariales y puntajes crediticios similares. “Sus clientes se quejarán de ello; perdería la reputación de su marca “.

Probar el sesgo de los algoritmos antes de aplicarlos es la respuesta, según Gade. ‘Estas son prácticas éticas. Estas son las formas responsables de construir su IA ”, dijo.

La IA en el sistema de justicia penal y en el diagnóstico clínico tiene consideraciones aún más éticas: “En lugar de agregar valor a los clientes [with AI], es posible que en realidad los estés lastimando ”, concluyó.

Mire la entrevista en video completa a continuación, asegúrese de ver más de SiliconANGLE y theCUBE’s CUBE Conversations, y sintonice la cobertura en vivo de theCUBE del evento AWS Startup Showcase: The Next Big Thing in AI, Security & Life Sciences el 16 de junio. (* Divulgación: Fiddler Labs Inc. patrocinó esta conversación CUBE. Ni Fiddler Labs ni otros patrocinadores tienen control editorial sobre el contenido de theCUBE o SiliconANGLE).

Foto: SiliconANGLE

Ya que estás aquí …

Muestre su apoyo a nuestra misión con nuestra suscripción de un clic a nuestro canal de YouTube (abajo). Cuantos más suscriptores tengamos, más YouTube le sugerirá contenido empresarial relevante y de tecnología emergente. ¡Gracias!

Apoya nuestra misión: >>>>>> SUSCRÍBETE AHORA >>>>>> a nuestro canal de YouTube.

… También nos gustaría contarte sobre nuestra misión y cómo puedes ayudarnos a cumplirla. El modelo comercial de SiliconANGLE Media Inc. se basa en el valor intrínseco del contenido, no en la publicidad. A diferencia de muchas publicaciones en línea, no tenemos un muro de pago ni ejecutamos anuncios publicitarios, porque queremos mantener nuestro periodismo abierto, sin influencia ni la necesidad de perseguir el tráfico.El periodismo, los informes y los comentarios sobre SiliconANGLE, junto con el video en vivo sin guión de nuestro estudio de Silicon Valley y los equipos de video trotamundos en el cubo – requiere mucho trabajo, tiempo y dinero. Mantener la calidad alta requiere el apoyo de patrocinadores que estén alineados con nuestra visión de contenido periodístico sin publicidad.

Si le gustan los informes, las entrevistas en video y otro contenido sin publicidad aquí, tómese un momento para ver una muestra del contenido de video respaldado por nuestros patrocinadores, tuitea tu apoyoy sigo volviendo a SiliconaANGLE.

Author

Moisés Cabrera

Encantado de emprender, el Internet es como pez en el rio para mi y quiero aportar valor a este mundo digital. Si crees que es de interés estos artículos no dudes en comentar.

¿Te gusta nuestro contenido?Recibe noticias y estrategias digitales a tu correo.

No pierda la oportunidad de recibir también descuentos de nuestros servicios.