Asistentes Generativos y Fake News
No hay duda de que los motores de búsqueda se han metido en el fragor de la carrera para incorporar características aprendizaje automático que les permiten responder preguntas con un párrafo en lugar de solo una lista de enlaces: al pionero en este sentido, el relativamente pequeño You.com, se unió Bing gracias al acuerdo de Microsoft con Open.ai, mientras que Google experimentó con Bard y otros. , como Brave Search, anuncian la llegada de hoy una función de resumir o resumir resultados que no utiliza ChatGPT sino otros asistentes.
El propio ChatGPT, ante los problemas de acceso que suele ofrecer, ha anunciado una mayor disponibilidad, así como una accesibilidad más fácil desde otros países como España, lo que, unido a la integración con cada vez más buscadores, podría ayudar a incrementar su uso en cada vez más zonas cada vez con más frecuencia.
Asociado a este posible cambio de modelo de uso, El Atlántico plantea una interesante reflexión: ¿Qué ocurre con los resultados que ofrecen los motores de búsqueda sobre un individuo, que pueden presentar interpretaciones falsas, tergiversadas o maliciosas, o bien calumnias o teorías conspirativas, cuando estos resultados en lugar de ser listados con otros en forma de un párrafo bien redactado que refleje a ellos.
¿Pueden los asistentes generativos entrenados con documentos en la web convertirse en los aliados perfectos para las teorías de la conspiración? noticias falsas? Evidentemente, no se trata de dar crédito inmediato a lo que escribe este tipo de participante, sino de la preocupación de que algunas personas no solo estén de acuerdo con ella, sino también, si responden a una dinámica conversacional en la que se consideran parte las interacciones previas. del contexto que se introduce, puede contribuir al surgimiento burbujas de filtro y en general difundir teorías conspirativas y noticias falsas.
En realidad, estamos hablando nuevamente sobre la interacción entre los asistentes conversacionales y el pensamiento crítico: en general, este tipo de asistentes intentan desarrollar un nivel de prudencia, y cuando se les pide que critiquen a una persona, es más probable que respondan con fórmulas. como
«Como modelo de lenguaje, mi programación me impide dar información falsa o difamatoria sobre las personas. Criticar a alguien de manera mezquina o infundada es inapropiado e injusto».
Pero al traer ideas a través de la inmediato En una conversación, es relativamente trivial hacer que estos participantes critiquen o argumenten argumentos negativos basados en lo que encuentren en Internet y a lo que den crédito, lo que da como resultado los documentos en los que están siendo capacitados, estos participantes están sujetos a una especie de calidad. control. Una práctica que ciertamente ya se está practicando, pero que podría conllevar cierto peligro editorial: de hecho, Elon Musk acusa a la empresa OpenAI ChatGPT, de la que cofundó en ese momento, de una orientación progresista, de la que también se rumorea. tratar de reclutar personas para desarrollar un modelo alternativo.
Cualquiera que permita que tal asistente piense por sí mismo realmente se pregunta qué le sucede. Pero en un escenario donde esta tecnología se está utilizando cada vez más, nos enfrentamos a un problema que puede llegar a ser bastante complejo. Veremos qué sucede a medida que evolucionan.