Las nuevas herramientas que desafían a la humanidad y que ahora pueden ser utilizadas por los profesionales de la salud fueron analizadas por una experta en El Interactivo, de Ciudadano News.
Geoffrey Hinton, una de las figuras más influyentes en el desarrollo de la inteligencia artificial (IA), nuevamente alzó la voz sobre los peligros de la tecnología que él mismo ayudó a crear. El «padrino de la IA», como muchos lo llaman, compartió recientemente sus preocupaciones sobre el futuro de la humanidad en una era dominada por las máquinas inteligentes, en una presentación para el Vector Institute en YouTube.
Su preocupación radicó en la velocidad vertiginosa con la que la IA está evolucionando y en la posibilidad de que supere la inteligencia humana, planteando riesgos existenciales para la humanidad. El científico computacional advierte sobre el mal uso deliberado de la IA por parte de actores maliciosos, el desempleo tecnológico a gran escala y el riesgo existencial de la inteligencia artificial general. «Me preocupa mucho si somos capaces de mantenernos al día con la IA, o si la IA simplemente va a tomar el control«, afirmó.
Anabella Serventi, psicóloga, indicó en el magazine de Ciudadano News, El Interactivo: «Nos puede ayudar la IA hasta cierto punto, esto es; úsenlo con sabiduría. Tengo la filosofía que es un buen momento para volver a la filosofía de Humberto Eco, Apocalípticos e Integrados, y no ir a ninguno de los dos extremos«.
https://books.google.com.ar/books?id=W5zYVzkliFAC&newbks=0&lpg=PP4&pg=PP3&output=embed
«La Inteligencia Artificial llegó para quedarse, con lo cual si nos reunimos con eso, nos vamos a quedar afuera nosotros y si lo integramos para todo también nos vamos a quedar afuera porque nos vas a reemplazar en un montón de funciones», reflexionó.
Informó que, «hay investigaciones acerca de los bots terapéuticos, y de hecho el uso de estos bots empezó mucho antes de la pandemia, no es tan nuevo este desarrollo. Yo mismo probé dos durante 1 año, allá por 2017/2018. Probé uno que era un desarrollo de la Universidad Stanford, que todavía está disponible, pero no en Argentina. Es un bot que está entrenado bajo la psicoterapia cognitiva conductual«.
«Después está el desarrollo de la universidad de la India, Wysa, esto tomó terreno muy rápidamente porque el diferencial que tiene es que cuando analiza lenguaje, detecta ciertos marcadores, aconseja el llamado por parte de un terapeuta humano. Esto es aconsejado por el sistema público de salud del Reino Unido como atención de primera línea para la población«, añadió.
«En mi caso prefiero que se use para educar, para orientar y no para tratamiento, para reemplazar un tratamiento. Por ejemplo, sería interesante, saber si la persona pudiera poner ahí cuáles síntomas o signos tiene. Si siente que le cuesta respirar, tiene pensamientos de angustia, no puede parar de recordar escenas tristes, y ahí la IA pueda evaluar cuál sería el dispositivo de salud mental más aconsejable«, marcó.
Y agregó: «Qué dispositivos cercanos tiene para acudir de emergencia. A que teléfonos puede llamar para atención a domicilio. Que brinde más un directorio, pero que no se ocupe del tratamiento, porque si bien estas inteligencias están muy avanzadas, hay algunas cosas que todavía no pueden hacer bien. Como por ejemplo, anticiparse a la intuición moral y trabajar con la escala de valores situada en el contexto de la persona«.
«Tanto es así que el año pasado hubo dos casos muy resonantes. Uno fue el de un chico que habló con su bot terapéutico porque los padres no le daban permiso para ir a una fiesta y el bot terminó aconsejándole que matara a sus padres. Otro caso fue el de una chica que llegó a cometer suicidio justamente después de los consejos de su bot terapeuta. Porque lo que hace la IA es analizar grandes cantidades de lenguajes. Entonces trabaja con los que nosotros le decimos y es muy fácilmente manipulable el discurso bajo esa situación«, amplió.
Indicó que, «si la usamos como orientación o hacer estrategias, por ejemplo, la IA puede aumentar las estrategias para la gestión del estrés. Pero no el tratamiento cuando los síntomas del estrés están instalados porque ahí ya se pierden algunas cosas. Por eso existen mejores terapeutas que otros, como en toda profesión. Esto no quiere decir que los terapeutas humanos sean todos infalibles, incluso las IA compiten entre sí. Una persona decide cuál chatbot se descarga o no«.
«Acá el desafío es que todos nos volvamos competitivos integrando también la categoría de la IA. Cuál es el diferencial que yo como profesional tengo para ofrecerle a una persona que también es humano. Esto ayuda mucho a personas que viven lejos, que no están en zonas urbanas y que tienen poco acceso a dispositivos de salud. A gente que tarde mucho en conseguir turno porque la verdad que los dispositivos públicos están colapsados. A gente que tal vez no cuenta con los recursos para hacer un proceso terapéutico«, dijo.
Y prosiguió, «para personas que por ahí evitan el contacto, de hecho hay una trastorno que se llama trastorno por evitación. Entonces llegar a una consulta con otro resulta muy amenazante. Ahora cuál es el problema de todo esto. Es sostenerlo en el tiempo, porque el hecho de tenerlo en la palma de tu mano las 24 horas. Hace que tengas un pico en el uso como si fuera un videojuego que te llama la atención mucho al principio y que después decaiga y eso hace que no haya un proceso terapéutico como tal«.
«Todavía las IA autoconfiantes no están trabajando para nosotros. Hay IA reactivas y muy pocas regenerativas, porque las generativas todavía son muy costosas, como tecnología. Entonces lo que hacen de alguna manera es reaccionar a tu lenguaje y te responden a partir de tu lenguaje. Por eso decía que hay muchas cosas de la anticipación que nos a nosotros los seres humanos, lo que se llama la teoría de la mente, que todavía no las tenemos en la IA. Digo todavía porque los expertos dicen que vamos en esa dirección«, ventiló.
Apuntó que, «hay unos estudios muy interesantes de un investigador de una universidad canadiense y él publicó un estudio que se llama: tu psico bot no es tu psicólogo, y ahí él brinda estadísticas justamente de cuáles son estas falencias. Él dice que nosotros deberíamos entender esta diferencia. Nosotros tenemos un marketing hoy por hoy que está muy abocado a vendernos experiencia. Entonces, cuando vos comprás un auto, no comprás un auto, sino que compras la idea de libertad«.
«Esto no debería pasarnos con los dispositivos de salud y en esto tendríamos que ser toda la población consciente. Ahí tenemos que tener cuidado con las aplicaciones porque también está desarrollada por dos grandes grupos. Compañías, tenés empresas que se dedican al desarrollo de productos para la salud como la Universidad Stanford. O esta universidad de la India. Y tenés otras desarrolladoras que se dedican a realizar software, pero que no están orientadas a la salud. Eso lo hacen contratando consultores externos, pero que su especialidad no es la rama de la salud«, admitió.
Reflexionó que, «la IA tiene ir a máquinas autocofiantes. El desafío es que no dejemos de serlo nosotros en el camino, porque la IA nació para complementarnos, para asistirnos. Asistencia virtual, copiloto, no para reemplazarnos, pero nosotros les estamos dando un lugar preponderante. Le estamos dando la realización de nuestras tareas. No les preguntamos sobre cuáles son los libros referentes en este tema, sino que le pedimos que nos haga la tarea y eso sí es grave porque ahí nos estamos dejando de desarrollar en pensamiento y lenguaje».
«En adolescentes sería interesante poder usarlos con ellos el primer tiempo. Ver cuáles IA bajan, ver cuál es el uso. Cómo es la interacción para poder charlar, cuáles son los riesgos. Tenemos una inundación de desarrollos novedosos, pero también tenemos una inundación de voces críticas frente a esto y uno elige a qué le sube y le baja. Hace pocos días Geoffrey Hinton, publicó una nota muy interesante. Él se considera el «padrino de la inteligencia artificial». Renunció en 2023 a Google para poder hablar libremente de los riesgos que conlleva la IA«, informó.
Aclaró que, «el tema es, con qué criterio elegimos, qué voces escuchamos y qué no. De psicología hablamos de diferencias, las cosas son una amenaza cuando vos no tenés recursos de afrontamiento para hacer frente a eso que se viene y se consideran un desafío cuando pese a la dificultad vos podés adquirir esos recursos de afrontamiento. La IA para nosotros tiene que ser un desafío y no una amenaza«.
«Los psicólogos, algunos calculo, están utilizando IA, otros la dejarán afuera. Eso tiene que ver con el paradigma de cada uno. Hago una diferenciación, a veces se confunde qué es la psicología de la psicoterapia, la psicología es una ciencia, hay psicólogos que nunca ven un paciente, no hacen clínica. Y la psicoterapia es una práctica con propósito. ¿Cuál? De acuerdo a la rama teórica a la que abreva, la psicoterapia toma conocimiento de la psicología, pero no es lo mismo«, apuntó.
Concluyó que, «después está lo terapéutico donde tenés otras ramas como la musicoterapia, arteterapia, y otras disciplinas que no abrevan el conocimiento psicológico, con lo cual de acuerdo a la mirada y al paradigma que tiene cada uno sabrá cómo usarlo para una mejor atención».
Fuente: El Interactivo Ciudadano News