El desafío de la inteligencia artificial es convertir a la sociedad para que pase de ser impulsada por los datos a ser impulsada por los valores.

26 de febrero de 2023 | St. Albans, Hertfordshire, Inglaterra | Vanesa Pizzuto, Noticias de la División Transeuropea

Durante una reciente capacitación a la que asistí sobre gestión de crisis, nuestro instructor, un entusiasta confeso de la inteligencia artificial (AI), pasó una cantidad exorbitante de tiempo alabando al ChatGPT.

Sin querer admitir que no tenía idea de qué estaba hablando, lo busqué furtivamente en mi teléfono. ChatGPT, o Transformador Preentrenado Generativo, es básicamente un chatbot, un programa informático usado para conversaciones de chat en línea, propulsado por inteligencia artificial y diseñado por OpenAI, un laboratorio de investigación en California, Estados Unidos.

¿Conoce usted esos a menudo frustrantes chats automatizados de servicio al cliente? Son operados por chatbots más antiguos: básicamente, por los bisabuelos de ChatGPT. Ahora imagine lo siguiente: en lugar de esa inmensa frustración, el chatbot le brinda respuestas asombrosamente humanas a cualquier indicación. Eso es ChatGPT.

¡Pero hay más! ChatGPT puede escribir programas de computación y componer música. Puede incluso escribir ensayos y poesía. Para demostrar su simplicidad de usar y poderoso resultado, nuestro instructor nos ofreció una demostración. Todo lo que hizo fue conectar ChatGPT a Google Forms y le pidió que escribiera el índice de un trabajo sobre “Gestión de crisis” y también algunos párrafos. Después de esperar tan solo unos segundos, ¡listo! En frente de nosotros tuvimos un texto marcadamente coherente y exacto.

Después de que me recuperé de la sorpresa, pregunté lo que cualquier autor que se precie de tal habría preguntado: “¿Qué pasa con los derechos de autor” Después de todo, ChatGPT fue desarrollado usando una cantidad masiva de datos extraídos de Internet (570 gigas de texto, para ser preciso), parte de lo cual es material que tiene derechos de autor. En realidad, es una zona gris. En el presente, no está claro si ChatGPT altera las obras originales lo suficiente como para evitar violaciones a los derechos de autor (y, si lo hace, si esto constituye una verdadera creación o un mero “lavado de derechos de autor”). Lo que está claro que es OpenAI no se responsabiliza por daños y perjuicios.¹ Por ello, si los usuarios enfrentan un juicio, quedan básicamente solos para defenderse.

Más allá de las implicaciones de los derechos de autor, algo está claro: ahora que Google también está lanzando su propio chatbot llamado Bard, AI se ha convertido en una parte de nuestra vida diaria, ahora más que nunca.

Algunas implicaciones para la educación

Casi todos en mi familia son docentes. Por ello, no es de sorprender que, una vez que terminó la capacitación, mi mente pasó directamente a las implicaciones para la educación. Tomé entonces el teléfono, y llamé a mi hermana melliza, Inés, que dirige una escuela bilingüe en Argentina.

Hablamos un rato de cómo la inteligencia artificial forzará a las instituciones educativas a repensar el plagio. Pero pronto ingresamos a aguas más profundas, porque pasamos a discutir criterios de evaluación y los objetivos centrales de la educación.

“Creo que los avances en la inteligencia artificial nos forzarán a enfocarnos aún más en la alfabetización emocional y el pensamiento crítico”, dijo mi hermana. “En tiempos en que una computadora puede brindarte una respuesta en un nanosegundo, nuestro énfasis tiene que estar en el discernimiento, no en la regurgitación de contenidos”.

Más allá del potencial para la deshonestidad académica,² uno de los temores de la tecnología del estilo ChatGPT es que sea usada para generar cantidades masivas de noticias falsas. “En lugar de un informe falso sobre una elección supuestamente robada, alguien podría generar rápidamente muchos informes únicos para distribuirlos en los medios sociales, para que así parezca que diferentes personas están escribiendo esos informes”, dijo Ulises Mejias, profesor de comunicación de la Universidad Estatal de Oswego en Nueva York y coautor de The Costs of Connection [Los costos de la conexión].³

¿Qué decir de la iglesia?

Como iglesia, a menudo hemos tomado el enfoque simplista de demonizar las nuevas tecnologías toda vez que nos toca enfrentar escenarios complejos tales como este. Creo que es un terrible error. No solo que esa tecnología no va a desaparecer (no importa cuán profundamente enterremos la cabeza en la arena), sino que también, cuanto más retrasemos la interacción con esas tecnologías, más vulnerables seremos a los potenciales abusos y menos capacidad tendremos de impactar a la sociedad para bien. Después de todo, a menos que la sal se mezcle con el alimento, no puede darle sabor.

“Demonizar la tecnología no es la solución. Necesitamos facultar a los estudiantes para que examinen cuidadosamente las cantidades masivas de datos a los que están expuestos cada día”, dijo mi hermana. Si quieren disfrutar de los beneficios de las nuevas tecnología y evitar con éxito sus inconvenientes, “los estudiantes no deberían completar la educación formal sin familiarizarse con conceptos tales como sesgo algorítmico, ética de la inteligencia artificial, y desinformación. Necesitamos proveerle de herramientas prácticas. Por ejemplo, todos deberíamos saber cómo efectuar una búsqueda inversa de imágenes para comprobar si la fotografía que acompaña una publicación es original o no”.

Una inteligencia artificial compasiva

La compasión no es una palabra que solemos asociar con la inteligencia artificial. Pero espero que eso cambie algún día. Como mínimo, podría serlo si comenzamos a enseñar alfabetización y ética de la inteligencia artificial. Podemos garantizar que los avances de la inteligencia artificial como ChatGPT mejoren de manera significativa nuestra vida y sociedad si:

  • no abdicamos nuestros derechos como ciudadanos
  • estamos dispuestos a escribir cartas tanto a políticos como a educadores
  • impulsamos políticas que garanticen que los grupos minoritarios sean tomados en cuenta cuando se usen los datos para programar los algoritmos
  • actualizamos las leyes de derechos de autor
  • exigimos que la compasión y la seguridad sean parte del diseño, desde las primeras etapas de los desarrollos de inteligencia artificial.

La inteligencia artificial compasiva no es solo posible, como lo muestran iniciativas tales como Deep Empathy y Cogito, sino absolutamente necesarias. Porque, como lo señala sabiamente el científico de inteligencia y escritor Amit Ray, “el desafío real es cómo digitalizar e incorporar valores humanos tales como la compasión, el perdón, la valentía, la moralidad, el amor y la creatividad en los sistemas basados en la inteligencia artificial”.4

Le pregunté a ChatGPT cómo podemos garantizar que la inteligencia artificial sea usada para el bien general de la humanidad. Esta fue su respuesta:

Garantizar que la inteligencia artificial sea usada para el bien general de la humanidad requiere de una combinación de enfoques técnicos, legales y éticos.

He aquí algunos pasos que pueden ayudar:

Desarrollar normas éticas: Se deberían establecer normas éticas que orienten el desarrollo y la implementación de los sistemas de inteligencia artificial, garantizando que estén alineados con valores humanos y que respeten los derechos humanos. Esas normas deberían responder a cuestiones tales como la privacidad, la rendición de cuentas, la transparencia y la ecuanimidad.

Garantizar la transparencia: Los sistemas de inteligencia artificial deberían ser transparentes y fáciles de explicar, para que los afectados por sus decisiones puedan entenderlas y evaluarlas. Esto ayudará a desarrollar la confianza en la tecnología y garantizar que sea usada de manera responsable y ética.

Promover la diversidad y la inclusividad: Los sistemas de inteligencia artificial deberían ser desarrollados e implementados de manera tal que resulten inclusivos y reflejen la diversidad de la sociedad. Esto ayudará a garantizar que la tecnología no perpetúe los sesgos y la discriminación existentes.

Establecer marcos legales y regulatorios: Los gobiernos deberían establecer marcos legales y regulatorios que gobiernen el uso de la inteligencia artificial, y proteger los derechos e intereses de los ciudadanos. Estos marcos tienen que exigir la rendición de cuentas a los sistemas de inteligencia artificial y sus desarrolladores por sus acciones, y garantizar de que sean usados de manera responsable.

Alentar la participación del público y el diálogo: Debería haber una participación pública y un diálogo continuos sobre el desarrollo y la implementación de la inteligencia artificial, para garantizar que la tecnología sea usada de una manera que sirva al interés público.

Al tomar estos pasos, podemos garantizar que la inteligencia artificial sea usada para el bien general de la humanidad, y de todos los miembros de la sociedad puedan disfrutar de sus beneficios.

La versión original de este comentario fue publicada en el sitio de noticias de la División Transeuropea.

Traducción de Marcos Paseggi

Top news

Una silla vacía en una mesa de esperanza
ADRA prepara esfuerzos de ayuda por terremoto en Vanuatu
Festival cinematográfico en Venezuela muestra marcados progresos, maneras efectivas de exaltar a Cristo