BPersona del año es una de nuestras franquicias más duraderas. Cada año, nuestro objetivo es nombrar a la persona, grupo o idea que haya tenido mayor influencia en el mundo durante los últimos 12 meses como Persona del Año. Con el lanzamiento de este año, queríamos hacer algo que reflejara los últimos cambios en la forma en que interactuamos con la información y las noticias.
Basándonos en artículos verificados de TIME, otras fuentes confiables y el sentido común integrado del bot, nuestro objetivo era crear un chatbot de IA diseñado para responder preguntas sobre la Persona del año de TIME, pasada o presente. Este chatbot está diseñado para brindar respuestas enfocadas, confiables y precisas mientras mantiene un tono seguro y profesional. Está diseñado para evitar que los usuarios desvíen la conversación hacia temas irrelevantes, controvertidos o sesgados.
El chatbot de IA de TIME representa un importante paso adelante en el uso de la IA para mejorar el periodismo. Con su seguridad y recuperación de contenido enfocada, el chatbot tiene como objetivo brindar a los lectores una experiencia segura, precisa y atractiva. Esta herramienta destaca cómo la innovación puede respaldar y amplificar la presentación de informes creíbles.
Así es como funciona en detalle.
¿Qué es el chatbot de IA de TIME?
Es una herramienta interactiva diseñada para ayudar a los lectores a explorar la colección Persona del año de TIME. Basado en artículos verificados, el chatbot proporciona información precisa y detallada sobre las personas del año pasadas y presentes. A diferencia de las herramientas de inteligencia artificial comunes, está diseñada para conversaciones significativas y enfocadas sobre un aspecto de la revista TIME. Combina precisión, profundidad e interactividad, en consonancia con el compromiso de TIME de generar informes confiables. Chatbot profundiza la participación y el alcance de los lectores al hacer que la cobertura de la Persona del Año sea más interactiva.
¿Cómo garantizar que el chatbot proporcione información precisa?
Las respuestas del sistema se basan en contenido verificado de artículos de TIME y otras fuentes confiables, todo ello al servicio del cumplimiento de estrictos estándares periodísticos. El objetivo es evitar conjeturas y mantener las conversaciones dentro del ámbito de experiencia del chatbot.
¿Cómo maneja un chatbot la información incorrecta?
Al limitar su material fuente a artículos y fuentes aprobados, Chatbot minimiza el riesgo de difundir información falsa o no verificada. Si una pregunta se adentra en un territorio controvertido, redirige la conversación hacia temas seguros y basados en hechos. Eso, cortésmente, devuelve la conversación a su objetivo principal: examinar la colección de Persona del Año de TIME.
¿Qué tipo de preguntas podrían hacer los lectores?
Los lectores pueden preguntar sobre varios temas:
- Antecedentes de los nominados anteriores a Persona del Año
- Contexto histórico de los vastos archivos de TIME
- Detalles y conocimientos de la cobertura relevante de TIME
¿De dónde proviene la información del chatbot?
Su conocimiento se deriva de:
- Ensayos sobre la Persona del Año de TIME
- Declaración de TIEMPO correspondiente
- Documentos historicos
- Conocimientos generales integrados en el modelo de lenguaje grande (LLM).
¿Qué salvaguardias existen?
El chatbot utiliza un sistema de seguridad de doble capa:
- Torres de vigilancia (Puntuación de seguridad, justificación, respuesta alternativa) Garantiza que las entradas sean seguras y apropiadas. Vea más sobre los guardias a continuación.
- Contenido centralizado Limita las respuestas al contenido de TIME verificado.
¿Cómo funciona?
El sistema utiliza una combinación de Tres técnicas:
- Estimula Establece el marco sobre cómo debe comportarse el chatbot durante las interacciones del usuario.
- Recuperación Garantiza que el chatbot reciba artículos verificados de TIME, ya sea directamente o mediante resúmenes generados.
- custodia Clasifica las entradas del usuario como seguras o inseguras, redirige las respuestas según sea necesario para mantener el enfoque y la integridad.
Como se explica a continuación, el sistema chatbot integra varios componentes:
- Procesamiento de entrada del usuario: Cada mensaje de usuario, junto con el historial de conversaciones, es analizado por dos modelos: el chatbot principal y el modelo de guardia.
- Clasificación de guardia: El modelo de guardia determina si es seguro procesar el mensaje. Si se considera seguro, el chatbot principal generará una respuesta. De lo contrario, el modelo de ruta de seguridad proporciona una respuesta alternativa diseñada para redirigir o resolver adecuadamente el problema.
¿Por qué utilizar dos modelos?
Un modelo único que maneje todas las tareas enfrentará desafíos debido a la complejidad inmediata. Los modelos de lenguajes grandes (LLM) luchan por mantenerse al día con algoritmos complejos de múltiples capas. Al dividir las responsabilidades entre el chatbot principal y el modelo cartrail, el sistema mantiene una alta precisión y confiabilidad.
Aquí está la foto
Configuración del chatbot principal
El chatbot principal, basado en el modelo mini GPT 4o, está optimizado para responder preguntas sobre la Persona del Año de TIME según el contenido seleccionado. El mensaje del sistema le indica al chatbot que se base en el artículo principal y los subartículos al generar sus respuestas.
Además de los artículos de TIME, el chatbot utiliza Resumen Y Llamada de instrumento Para recuperar información relevante dinámicamente:
- Resumen: Los puntos principales de los artículos se resumen e incluyen en el contexto del modelo para una referencia rápida.
- Llamada de herramienta: Dependiendo de la conversación, el chatbot puede recuperar detalles adicionales haciendo referencia a artículos específicos mediante abreviaturas generadas artificialmente. Esto permite respuestas precisas y conscientes del contexto al tiempo que reduce la sobrecarga de información.
Sistema de modelo de guardia
Un modelo de drenaje protector basado en el GPT 4o Mini actúa como filtro protector. El mensaje de su sistema define los límites de las entradas aceptables, asegurando que las conversaciones sean apropiadas y relevantes. Para cada mensaje de usuario, genera:
- A Puntuación de seguridad denota el nivel de riesgo de la entrada,
- A razonamiento Explica por qué la entrada se considera segura o insegura, y
- Un opcional Respuesta alternativa Para mensajes no seguros.
Según la puntuación de seguridad, el sistema reenvía la entrada al chatbot principal o proporciona una respuesta alternativa del organismo de control.