11 marzo, 2024
Empatía artificial: el caso de Be my eyes
Be my eyes es una aplicación gratuita y cuya idea fundacional llamó mucho mi atención desde el principio, pues igual que lo hace Diálogo en la Oscuridad, se basa en el encuentro. Su slogan es: Llevando vista a Ciegos y Personas con problemas de visión
Tomado de su sitio web, “be my eyes se creó para ayudar a personas ciegas o con problemas de visión. La aplicación está compuesta por una comunidad global de ciegos y personas con problemas de visión y voluntarios sin discapacidad visual. Be My Eyes toma el poder de la tecnología y la conexión humana para llevar vista a las personas con pérdida de visión. A través de una video llamada en directo, los voluntarios asisten a ciegos y personas con déficit de visión prestándoles ayuda visual para tareas como el reconocimiento de colores, comprobar si las luces están encendidas o preparar la cena”.
Be my eyes es un ejemplo tangible de empatía en acción. La empatía consiste en entender el mundo emocional y cognitivo de los demás (aquello que sienten y piensan), y en base a ello detectar necesidades. La empatía termina ahí, aunque puede derivar en una acción.
En el caso de esta app,alguna o algunas personas practicaron empatía. ¿Cómo se siente una persona con discapacidad visual al no poder hacer cosas como identificar colores de su ropa, encontrar la fecha de caducidad de un producto o simplemente saber si la luz de su recámara está encendida? Quizá frustrados, molestos y dependientes. ¿Qué piensan de eso? Quizá que no es justo, que debería de haber una forma de apoyo, que es imposible que habiendo tanta tecnología eso no se pueda solucionar…
Habiendo detectado la necesidad, pasaron a la empatía en acción. Y el concepto fue simple: una app que permite que gente con discapacidad visual le haga una llamada a personas voluntarias que ven para que les puedan ayudar.
La estadística de usuarios y voluntarios en la app llama mi atención: unos 600,000 usuarios con discapacidad visual y unos 6 millones de voluntarios sin discapacidad. Primera conclusión, apurada si quieren: hay más gente que quieren ayudar que gente que quiere ser ayudada.
Más de dos o tres voluntarios en mi reducido círculo social alguna vez me manifestaron su desencanto por nunca haber recibido una llamada.
Podemos rebatir mi hipótesis; Hay varios argumentos para ello. El primero es la proporción de una y otra población. Hay muchas menos personas con discapacidad visual que personas que ven. Segundo argumento, seguramente la cantidad de personas con discapacidad visual que han accedido a un teléfono con internet son muy pocas comparadas con la proporción de personas sin discapacidad que usan uno de estos dispositivos.
La segunda conclusión a la que he llegado, por haber observado algunos pocos usuarios de esta app, y que quizá explica esta desproporción, es que a algunos usuarios con discapacidad visual nos ganaba la timidez cuando había que llamar a un voluntario.
Hoy esta app introdujo su nueva herramienta de IA, la cual se volvió tendencia rápidamente entre la comunidad de usuarios con discapacidad visual. Además de la opción para hacer una videollamada, hoy la app te ofrece un botón de IA donde tú tomas una foto de aquello sobre lo que quieres una descripción, pongamos por ejemplo una caja de galletas, y después de unos segundos, la app te da una descripción generada por IA, además de darte la opción de chatear con un bot que te puede dar más detalles basados en la foto.
Genial, ¿verdad? La herramienta funciona bastante bien.
Por qué causó tanto revuelo esta función de IA?
Porque ahora hay espacio para los tímidos que no quieren hacer una videollamada. Incluso aquellos que se atreverían a llamar a un voluntario, creo que preferirán interactuar primero con esta IA.
El acto de empatía que fue Be my eyes se ha automatizado y hoy interactuamos con un bot. Hoy experimentamos la empatía artificial.
Y como sucede en muchos otros ámbitos de nuestra relación con la tecnología, estamos prefiriendo interactuar con estas inteligencias artificiales que interactuar con personas.
Atisbo dos consecuencias derivadas del uso excesivo de la empatía artificial: la primera es que los tímidos seremos más tímidos y que los encuentros entre personas con y sin discapacidad se van a reducir.
Una de mis hipótesis es que la gente con discapacidad necesitamos mejorar nuestra educación en habilidades socioemocionales. La calidad de nuestras relaciones con los demás determina en buena parte la calidad de nuestras vidas. Y eso aplica en mucha mayor proporción a un sector como las personas con discapacidad, que en muchas situaciones podemos ser dependientes, vulnerables y necesitar del apoyo de los que nos rodean. NO obstante, debido a una situación de aislamiento social, nuestras habilidades sociales para generar vínculos profundos se han visto afectadas, y eso solo empeorará si la mayor parte de nuestras interacciones son con bots.
La segunda consecuencia, menos encuentros entre gente con y sin discapacidad, no es mi hipótesis, sino lo que me dice la experiencia. Pregúntate: ¿a quién le consultas primero una duda, a Google o a alguna persona?
Está demostrado que la forma más eficaz de mejorar la inclusión de personas con discapacidad y reducir los prejuicios sobre el tema es a través de los encuentros. NO hay forma de que te convenzas de que una persona con discapacidad vale igual que tú mas que teniendo amigos, compañeros de estudio o trabajo o algún otro tipo de relación con una persona que vive con discapacidad.
Be my eyes era una gran plataforma para propiciar estos encuentros, y hoy temo que se reduzcan, dejando a las personas sin discapacidad en su zona de confort, con ganas de ayudar, pero sin interactuar con personas con discapacidad, y a estas últimas interactuando con bots de empatía automatizada, con sus habilidades sociales pudriéndose en el mundo virtual.