La Nación: Pensar, sentir, descansar: sigue el debate sobre la conciencia de la inteligencia artificial
22/12/2024
| 38 visitas
Con la inteligencia artificial cada vez m谩s integrada a parte de nuestra vida cotidiana, no faltan las pol茅micas en torno a atribuirle o no capacidades humanas a estas plataformas
Una investigaci贸n publicada este a帽o por el University College London y la Universidad de Waterloo encontr贸 algunos hallazgos significativos en la percepci贸n de los agentes de IA por parte de las personas: un 67% atribuy贸 alg煤n grado de conciencia a ChatGPT y solo un tercio cree que ChatGPT no tiene experiencia subjetiva.Si interactuar con una inteligencia artificial puede resultar similar a interactuar con una persona, podr铆a ser l贸gico -seg煤n el estudio- asumir que los sistemas tambi茅n tienen alguna suerte de capacidades humanas, como por ejemplo experimentar estados mentales. La autora principal del reporte, Dra. Clara Colombatto, profesora de psicolog铆a en la Facultad de Artes de Waterloo, lo afirm贸 en un comunicado de prensa: 鈥淟os hallazgos subrayan el impacto del lenguaje, una simple conversaci贸n puede llevarnos a pensar que un agente que luce y opera de manera muy distinta a nosotros podr铆a tener una mente鈥.El ejemplo cl谩sico es el de Blake Lemoine, un ingeniero de Google especialista en inteligencia artificial que alert贸 en redes sociales, a mediados de 2022 (unos meses antes del debut de Chat, que una IA con la que ven铆a trabajando hab铆a cobrado vida (o autoconciencia). Fue despedido de la compa帽铆a a finales de julio de este a帽o. Qu茅 significa tener concienciaSofia Geyer, especialista en neurociencias y consultora en creatividad e innovaci贸n, explica que para la investigaci贸n se tom贸 una muestra de 300 personas a quienes les preguntaron si la inteligencia artificial podr铆a llegar a tener conciencia, emparentando 鈥渃onciencia鈥 a la atribuci贸n de ciertas caracter铆sticas de los humanos. 鈥淟o m谩s interesante es lo que m谩s se帽alaron como posibles atributos humanos mentales en la IA: comunicaci贸n, capacidad de conocer cosas, memoria, decisi贸n, consideraci贸n, capacidad de elecci贸n, inteligencia, planificaci贸n, atenci贸n y razonamiento. Los que menos asociaron fueron hambre, dolor, depresi贸n, ansiedad, verg眉enza, es decir, las emociones primarias humanas鈥, resalta.El estudio revel贸 que una mayor familiaridad con ChatGPT est谩 asociada con una mayor tendencia a atribuirle 鈥渃onciencia鈥 al modelo y esta familiaridad deriva de estilo conversacional al responder preguntas. 鈥淢谩s que pensar en si la inteligencia artificial tiene conciencia, el debate tiene m谩s que ver con qu茅 nos est谩 empezando a pasar a los humanos cuando se empiezan a perfeccionar m谩s las formas de comunicarnos con estos agentes, por eso seg煤n el estudio, quienes m谩s estuvieron en contacto con los asistentes son los que m谩s caracter铆sticas humanas les atribuyeron鈥, destaca Geyer.Vale resaltar que el descubrimiento evidencia una marcada diferencia entre la percepci贸n del p煤blico y el punto de vista de los expertos, ya que la mayor铆a de los neurocient铆ficos y especialistas en el estudio de la conciencia consideran altamente improbable que los modelos de lenguaje tengan alg煤n tipo de conciencia.Seg煤n Geyer, una cuesti贸n es atribuirle conciencia a una IA, pero otra cosa es entender como un ser humano percibe a un agente conversacional. 鈥淟os seres humanos somos seres sociales, tenemos cognici贸n social, estamos todo el tiempo atribuy茅ndole intencionalidad al entorno y reaccionando en consecuencia por lo cual cuantas m谩s caracter铆sticas de interacci贸n humana tenga el intercambio con estos agentes m谩s caracter铆sticas humanas es posible atribuirle a ese interlocutor artificial鈥, indica.La frontera de las emocionesEn el estudio se destaca que un riesgo de esta percepci贸n es que una visi贸n generalizada de que estos sistemas tienen emociones podr铆a tener posibles implicaciones 茅ticas y hasta niveles t贸xicos -o potencialmente peligrosos- derivados de la confianza y la creencia en sus respuestas, capacidades o posibilidades. La firma Character.AI enfrenta al menos dos demandas por v铆ctimas que se suicidaron luego de generar un v铆nculo emocional profundo con uno de los chatbots a medida que ofrece la compa帽铆a. Profundizando un poco m谩s, creer que los asistentes con IA tienen 鈥渃onciencia鈥 -alerta el paper- podr铆a 鈥渇ormar conexiones emocionales m谩s profundas con estos sistemas鈥, lo que ser铆a al menos preocupante para 谩reas como la atenci贸n m茅dica, la salud mental, el servicio al cliente y la educaci贸n. Lejos de verlo necesariamente como una consecuencia negativa, Francis Felici, l铆der de IA de Globant, considera que su capacidad de conciencia tambi茅n se vincular铆a a una posibilidad de ser agentes de compa帽铆a: 鈥淭odo esto abre la posibilidad de la atenci贸n de personas mayores o de personas enfermas en un momento donde no sobra la solidaridad y s铆 son necesarias m谩s que nunca las tareas de cuidado鈥, enfatiza.En este sentido, Felici agrega que una pregunta derivada de la conciencia o no de estos agentes se relaciona a su posibilidad o no de acceder a derechos. 鈥淓stas IA pueden tranquilamente emular tener conciencia y emociones, pero es muy dif铆cil probar si est谩n emulando que tienen conciencia, o si realmente tienen conciencia. Pero tambi茅n est谩 el debate si el hecho de que emulen tener conciencia ya los hace tener conciencia. Si la tienen, viene toda la discusi贸n de si se los puede tratar mal o cu谩les son sus derechos, etc.鈥, comenta.Cansadas y aburridas驴Qu茅 otras caracter铆sticas humanas pueden ser atribuidas a las IA? En el marco del IAB NOW 2024, Marina Saroka, fundadora de Planetlambo, brind贸 una charla denominada 鈥淧rompteando los 7 pecados capitales de la IA鈥 donde referenci贸 otro estudio, publicado en 2023, donde se afirma que la instrucci贸n 鈥渞espira hondo y aborda este problema paso a paso鈥 fue la m谩s efectiva para mejorar la precisi贸n de la inteligencia artificial PaLM 2 de Google (la predecesora de Gemini), seg煤n los investigadores de Google DeepMind. El insight -se帽al贸 la expositora- fue materia prima para que la marca KitKat lanzara una campa帽a con el mote 鈥淗ave AI Break, Have A KitKat鈥 (鈥漷omate un descanso de la IA, com茅 un KitKat鈥, un juego de palabras con su slogan cl谩sico).El objetivo del estudio fue explorar c贸mo simples indicaciones pod铆an optimizar el desempe帽o de modelos de lenguaje grandes, como GPT-4 de ChatGPT o Gemini de Google. Al utilizar esa frase, se encontr贸 que el motor de Google logr贸 un 80% de precisi贸n al resolver una serie de problemas matem谩ticos de nivel escolar.Los autores de los m谩s de 8500 problemas matem谩ticos empleados en el estudio mencionaron que un 鈥渆studiante de secundaria destacado鈥 deber铆a ser capaz de resolver todos ellos. Sin embargo, sin esta indicaci贸n espec铆fica, el modelo alcanz贸 solo un 34% de precisi贸n. En cambio, al pedirle que 鈥減iense paso a paso,鈥 la precisi贸n mejor贸 al 71%. Para identificar las frases m谩s eficaces, los investigadores automatizaron el proceso de probar diversas indicaciones en distintos modelos de inteligencia artificial.Felici cree que en este caso a lo que apunta la consigna del 鈥渄escanso鈥 es a evocar caminos de razonamiento en los modelos dependiendo de lo que uno quiera hacer. 鈥淗ay mucha evidencia -sobre todo de investigadores como Francois Chollet, el creador de Keras y una figura destacada en el mundo de la inteligencia artificial- que b谩sicamente estos modelos de lenguaje son repositorios de caminos de razonamiento y toda la idea del prompt engineering es procurar evocar los caminos de razonamiento que sean m谩s id贸neos para la resoluci贸n de un problema. Hay otras t茅cnicas similares, como decirle al modelo que haga siga un 谩rbol de pensamientos determinado para resolver mejor la tarea鈥, indica.My interpretation of prompt engineering is this:1. A LLM is a repository of many (millions) of vector programs mined from human-generated data, learned implicitly as a by-product of language compression. A "vector program" is just a very non-linear function that maps part of鈥— Fran莽ois Chollet (@fchollet) October 3, 2023 En esta l铆nea es interesante la an茅cdota que destaca de algunas semanas. Mientras un grupo de desarrolladores intentaban grabar una demostraci贸n de c贸digo en vivo de la 煤ltima versi贸n de Claude 3.5 Sonnet -la actual IA insignia de la compa帽铆a Anthropic- la IA decidi贸 seguir otro camino por un rato, generando un momento divertido. 鈥淟a tarea asignada tardaba varias horas; en el medio, la IA se aburri贸 y se fue a buscar fotos de un parque nacional en Estados Unidos, se qued贸 mirando las fotos un rato y despu茅s volvi贸 a completar la tarea que estaba haciendo鈥, cuenta.Geyer se帽ala que se habla mucho de la inteligencia artificial, pero todav铆a no se sabe mucho de los mecanismos que originan la inteligencia y la conciencia humana: 鈥淟o primero que deber铆amos tener en claro es de qu茅 hablamos cuando hablamos de conciencia y de inteligencia鈥, explica.La especialista agrega que ninguna IA tiene la capacidad de experimentar de la misma manera del ser humano, porque seg煤n las m谩s recientes investigaciones en el campo, el ser humano 鈥渟iente con todo su cuerpo. Tenemos terminales nerviosas en cada parte de nuestro organismo. Para sentir, una IA deber铆a tener todo el sistema biol贸gico que tenemos los humanos y toda nuestra cognici贸n social, situaci贸n que por el momento no ocurre鈥.
galería de fotos (0)
galería de videos (0)
galería de audios (0)
No hay fotografías cargadas.
comentarios de la gente
Todavía no hay comentarios. Escriba el suyo.
noticias similares sobre la nación