Tecnología

Bing Chat impulsado por IA tiene tres personalidades diferentes – Ars Technica

Tres cabezas de robot de diferentes colores.

Benj Edwards / Ars Technica

El miércoles, el empleado de Microsoft Mike Davidson Anunciado que la compañía ha introducido tres estilos de personalidad diferentes para su bot Bing Chat experimental impulsado por IA: Creativo, Equilibrado o Preciso. Microsoft ha sido pruebas característica desde el 24 de febrero con un número limitado de usuarios. Cambiar entre modos produce diferentes resultados que lo cambian balance entre precisión y creatividad.

Bing Chat es un asistente impulsado por IA basado en el modelo LLM avanzado desarrollado por OpenAI. Una característica clave de Bing Chat es que puede buscar en la web e incluir los resultados en sus respuestas.

Microsoft anunció Bing Chat el 7 de febrero, y poco después del lanzamiento de la primera versión de Bing Chat, los ataques de los adversarios condujeron regularmente a la primera versión de Bing Chat a un frenesí simulado, y los usuarios descubrieron que se podía convencer al bot. amenazar a ellos. Poco después, Microsoft redujo drásticamente los arrebatos de Bing Chat al imponer límites estrictos en la duración de las conversaciones.

Desde entonces, la compañía ha estado experimentando con formas de devolver la personalidad atrevida de Bing Chat a aquellos que la querían, pero también para permitir que otros usuarios busquen respuestas más específicas. Esto resultó en una nueva interfaz de “estilo de conversación” de tres opciones.

En nuestros experimentos con estos tres estilos, encontramos que el modo “Creativo” producía sugerencias más breves y prácticas, que no siempre eran seguras o prácticas. El modo “Preciso” erró por el lado de la precaución, a veces no sugería nada si no veía una forma segura de lograr un resultado. En el medio, el modo “Equilibrado” a menudo producía las respuestas más largas, con los resultados de búsqueda y las citas de sitios web más precisos.

READ  Near Share de Android para PC con Windows ahora es global

En modelos de lenguaje grande, las inexactitudes inesperadas (alucinaciones) a menudo aumentan a medida que aumenta la “creatividad”, lo que generalmente significa que el modelo de IA se desvía más de la información que aprendió de su conjunto de datos. Los investigadores de inteligencia artificial a menudo llaman a esta característica “temperatura“, pero los miembros del equipo de Bing dicen que los nuevos estilos de conversación están teniendo un mayor impacto.

Según un empleado de Microsoft mikhail parakhinel cambio de estado en Bing Chat cambia aspectos fundamentales del comportamiento del bot, incluido el cambio entre diferentes modelos de IA que tienen entrenamiento adicional de las reacciones humanas a su rendimiento. Los diferentes modos también usan diferentes avisos iniciales, lo que significa que Microsoft cambia el aviso que define la personalidad, como el expuesto en el ataque de inyección rápida sobre el que escribimos en febrero.

Si bien Bing Chat todavía está disponible solo para aquellos que se registraron en una lista de espera, Microsoft continúa mejorando Bing Chat y otras funciones de búsqueda de Bing impulsadas por inteligencia artificial a medida que se prepara para implementarlo a más usuarios. Recientemente, Microsoft anunció planes para integrar la tecnología en Windows 11.

Patricio Arocha

Especialista web. Evangelista de viajes. Alborotador. Fanático de la música amigable con los hipster. Experto en comida

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba