El debate sobre la inteligencia artificial podría resumirse en una pregunta: ¿esta tecnología beneficiará a la humanidad o causará su destrucción?
En 2023, la IA, que solía ser una inquietud de la ciencia ficción, se ha vuelto tangible y apremiante. En noviembre del año pasado se lanzó ChatGPT, un bot conversacional que da información, explica conceptos y resume ideas en frases sencillas.
Al poco tiempo, había millones de usuarios asombrados con la capacidad del chatbot para escribir poesía, realizar trabajo tedioso o incluso redactar documentos legales. Al mismo tiempo se pudo ver un lado más turbio: podía facilitar la creación de textos, imágenes, audios y videos ultrafalsos que promueven desinformación o eliminar puestos de trabajo.
El debate sobre beneficios versus daños no se limitó a la discusión académica o periodística: también se expresó al interior de la propia OpenAI, la empresa creadora de ChatGPT, cuando en cuestión de días despidió y volvió a reinstalar a Sam Altman, su director ejecutivo.
La saga sobre la salida abrupta y el regreso de Altman, uno de los rostros más visibles de esta tecnología, “fue la culminación de años de tensiones latentes en OpenAI, que confrontaron a quienes estaban alarmados por el poder de la IA con quienes veían en la tecnología una oportunidad única de obtener beneficios y prestigio”, escribieron Tripp Mickle, Cade Metz, Mike Isaac y Karen Weise en un fascinante reportaje sobre el caos interno de la empresa.
El debate no es tan sencillo, y no se reduce a elegir entre velocidad y seguridad, según plantea el profesor De Kai, pionero del aprendizaje automático y especialista en ética de la inteligencia artificial.
La IA, argumenta en un ensayo reciente de opinión, ya es una realidad imposible de ignorar, así que Kai propone un balance para “desacelerar el despliegue de las inteligencias artificiales que están exacerbando la inestabilidad sociopolítica” y, al mismo tiempo, acelerar el desarrollo “de las que ayuden a reducir esos peligrosos niveles de polarización”.
Lo cierto es que, aún frente a la ambigüedad ética y la discrepancia sobre sus aplicaciones, millones de personas ya están empleando la IA para asuntos clave de su vida diaria.
En esos grises con posibilidades benéficas o inquietantes, está el modo en que vivimos el duelo.
“Algunas personas están recurriendo a la tecnología de IA como un modo de comunicarse con quienes fallecieron”, reportó nuestra colega Rebecca Carballo.
Sin embargo, este uso “ha planteado cuestiones éticas y ha dejado intranquilos a algunos de los que han experimentado con ella”.
Rebecca investigó sobre una serie de plataformas que permiten a los deudos crear representaciones digitales de personas que murieron.
Es el caso de Stephenie Lucas Oney, de 75 años, quien creó un avatar de su padre, fallecido el año pasado. Ella le pide consejos y quiere que sus nietos lo escuchen hablar “desde su punto de vista, su época y su perspectiva”.
David Spiegel, catedrático de psiquiatría y ciencias del comportamiento de Stanford, afirmó que este tipo de programas “podrían ayudar a la gente a procesar el duelo”, como un álbum de fotos. Pero, también, es crucial recordar que “no es que esa persona siga viva, comunicándose contigo”, dijo.