{"id":13312,"date":"2022-07-28T14:52:48","date_gmt":"2022-07-28T14:52:48","guid":{"rendered":"https:\/\/www.automaise.com\/paper-spotlight-beyond-goldfish-memory\/"},"modified":"2024-10-30T18:35:54","modified_gmt":"2024-10-30T18:35:54","slug":"paper-spotlight-beyond-goldfish-memory","status":"publish","type":"post","link":"https:\/\/www.automaise.com\/es\/paper-spotlight-beyond-goldfish-memory\/","title":{"rendered":"\ud83d\udd26Papel destacado: M\u00e1s all\u00e1 de la memoria de los peces de colores"},"content":{"rendered":"\n<p><strong>En Automaise, nos esforzamos por conseguir interacciones sin estr\u00e9s para sus clientes manteni\u00e9ndonos al d\u00eda de los \u00faltimos avances y construyendo mejores asistentes digitales.<\/strong><\/p>\n\n\n\n<p>En la actualidad, los modelos ling\u00fc\u00edsticos m\u00e1s avanzados se entrenan y eval\u00faan en conversaciones cortas con poco o ning\u00fan contexto. Las \u00faltimas mejoras siguen sin tener en cuenta la amplitud y el car\u00e1cter de los di\u00e1logos humanos, y los modelos suelen fallar en conversaciones largas y abiertas.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"4370\">\u00bfC\u00f3mo podemos abordar el problema? \ud83e\udd14<\/h2>\n\n\n\n<p><\/p>\n\n\n\n<p id=\"df15\">Facebook AI Research ha abordado recientemente m\u00e9todos para la conversaci\u00f3n de dominio abierto a largo plazo en su trabajo \u00ab<a href=\"https:\/\/arxiv.org\/abs\/2107.07567\" target=\"_blank\" rel=\"noopener\">Beyond Goldfish Memory:<\/a> <a href=\"https:\/\/arxiv.org\/abs\/2107.07567\" target=\"_blank\" rel=\"noopener\">Long-Term Open-Domain Conversation<\/a>&#8220;\u00b9. Adem\u00e1s, han recopilado un conjunto de datos en ingl\u00e9s titulado Multi-Session Chat (MSC), consistente en chats entre humanos y trabajadores en masa que abarcan cinco sesiones, cada una de ellas con hasta 14 enunciados. Cada sesi\u00f3n contiene tambi\u00e9n anotaciones sobre temas esenciales tratados en intercambios anteriores para alimentar las conversaciones siguientes.<\/p>\n\n\n\n<p id=\"82a3\">Para recopilar el conjunto de datos, emplearon a crowd workers para que desempe\u00f1aran el papel de oradores -proporcionados como frases que describen a un personaje- y reprodujeron un chat en l\u00ednea en el que los usuarios suelen pausar la conversaci\u00f3n para reanudarla al cabo de un tiempo.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\"><img decoding=\"async\" src=\"https:\/\/miro.medium.com\/max\/412\/1*J75pMv5H0LkZH9-AX0O4tw.png\" alt=\"\"><figcaption class=\"wp-element-caption\">Figura 1: Ejemplo de una conversaci\u00f3n del conjunto de datos MSC.<\/figcaption><\/figure>\n\n\n\n<p><\/p>\n\n\n\n<p>Para modelar el chat multisesi\u00f3n, los autores se decidieron por un modelo est\u00e1ndar de gran lenguaje (es decir, el codificador-decodificador Transformer), al tiempo que estudiaban dos t\u00e9cnicas:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Un m\u00e9todo de Recuperaci\u00f3n-Aumentaci\u00f3n que utiliza un sistema de recuperaci\u00f3n para encontrar y seleccionar qu\u00e9 parte del contexto incluir en la codificaci\u00f3n.<\/li>\n\n\n\n<li>Un m\u00e9todo de Summarization Memory-Augmentation que resume el conocimiento de di\u00e1logos anteriores y s\u00f3lo almacena esa parte de informaci\u00f3n, siendo as\u00ed m\u00e1s eficiente que el segundo.<\/li>\n<\/ol>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"5ec7\">Resultados \ud83d\udcca<\/h2>\n\n\n\n<p><\/p>\n\n\n\n<p id=\"eb4a\">A lo largo de sus experimentos, los autores observaron una mejora de la perplejidad (definida como la probabilidad logar\u00edtmica negativa media exponenciada de una secuencia) al a\u00f1adir el historial de di\u00e1logos en comparaci\u00f3n con un escenario sin contexto. Observaron un aumento del rendimiento al utilizar los res\u00famenes de sesi\u00f3n anotados por los crowdworkers, que son potencialmente m\u00e1s informativos que el historial de di\u00e1logos. El aumento del rendimiento es a\u00fan m\u00e1s notable cuando se eval\u00faan las respuestas iniciales de una sesi\u00f3n.<\/p>\n\n\n\n<p id=\"1772\">Adem\u00e1s de las m\u00e9tricas calculadas, los autores tambi\u00e9n realizaron una tarea de evaluaci\u00f3n humana con crowdworkers. Se eligen aleatoriamente dos personas del conjunto de validaci\u00f3n y se asigna una al crowdworker. A continuaci\u00f3n, el crowdworker entabla una conversaci\u00f3n con el otro personaje y se le pide que eval\u00fae las respuestas de su interlocutor, tanto si se refieren a informaci\u00f3n aprendida en sesiones anteriores como si no. Los autores llegaron a la conclusi\u00f3n de que sus modelos eran significativamente mejores a la hora de mencionar temas anteriores, a\u00f1adir otros nuevos a la conversaci\u00f3n y conseguir respuestas atractivas.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p id=\"4c31\">En general, el trabajo se centra en diferentes arquitecturas de modelos para ayudar a mantener conversaciones a largo plazo de forma m\u00e1s eficaz.<\/p>\n\n\n\n<p id=\"f9da\"><strong>En atenci\u00f3n al cliente, las t\u00e9cnicas descritas nos permiten crear mejores agentes conversacionales: mejores a la hora de captar usuarios, manejar respuestas complejas de los usuarios y garantizar una atenci\u00f3n personalizada basada en interacciones y solicitudes anteriores.<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Los modelos de lenguaje de \u00faltima generaci\u00f3n se est\u00e1n entrenando y evaluando actualmente en conversaciones cortas con poco o ning\u00fan contexto. Las mejoras recientes contin\u00faan ignorando el alcance y el car\u00e1cter de los di\u00e1logos humanos, y los modelos&#8230;<\/p>\n","protected":false},"author":1,"featured_media":7809,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[100],"tags":[],"class_list":["post-13312","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-paper-spotlight-es"],"_links":{"self":[{"href":"https:\/\/www.automaise.com\/es\/wp-json\/wp\/v2\/posts\/13312","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.automaise.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.automaise.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.automaise.com\/es\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.automaise.com\/es\/wp-json\/wp\/v2\/comments?post=13312"}],"version-history":[{"count":3,"href":"https:\/\/www.automaise.com\/es\/wp-json\/wp\/v2\/posts\/13312\/revisions"}],"predecessor-version":[{"id":13336,"href":"https:\/\/www.automaise.com\/es\/wp-json\/wp\/v2\/posts\/13312\/revisions\/13336"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.automaise.com\/es\/wp-json\/wp\/v2\/media\/7809"}],"wp:attachment":[{"href":"https:\/\/www.automaise.com\/es\/wp-json\/wp\/v2\/media?parent=13312"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.automaise.com\/es\/wp-json\/wp\/v2\/categories?post=13312"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.automaise.com\/es\/wp-json\/wp\/v2\/tags?post=13312"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}