El nuevo Bing basado en ChatGPT de Microsoft ha estado inactivo varias veces en la semana desde su lanzamiento, y el gigante tecnológico ahora ha explicado por qué.
en un entrada en el blog (se abre en una nueva pestaña) Titulado “Aprendiendo de nuestra primera semana”, Microsoft reconoce que “en sesiones de chat largas y extendidas de 15 o más preguntas”, su nuevo motor de búsqueda Bing puede “volverse repetitivo o solicitar/irritarse con respuestas que no son necesariamente útiles o compatibles con el uso”. un tono que nosotros diseñamos.”
Esa es una forma muy diplomática de decirlo, y hubo varias ocasiones en las que Bing perdió por completo la trama. Lo vemos terminar enojado una sesión de chat después de que se cuestiona su respuesta, afirmar ser consciente y atravesar una crisis existencial en toda regla que termina en una llamada de ayuda.
Microsoft dice que eso se debe generalmente a que las sesiones largas “confunden al modelo con la pregunta que está respondiendo”, lo que significa que su cerebro impulsado por ChatGPT “ocasionalmente trata de responder o reflejar el tono en el que se le pregunta”.
El gigante tecnológico admite que es un tema “muy importante” que podría tener consecuencias más graves que podrían ofender o empeorar. Afortunadamente, está considerando agregar herramientas y controles de ajuste que le permitirán salir de esos bucles de chat o comenzar una nueva sesión desde cero.
Como vimos esta semana, ver que el nuevo Bing falla puede ser un buen entretenimiento, y seguirá sucediendo sin importar las nuevas medidas de seguridad que se introduzcan. Es por eso que Microsoft se esfuerza por señalar que la nueva función de chatbot de Bing “no es un reemplazo o reemplazo de un motor de búsqueda, sino una herramienta para una mejor comprensión y comprensión del mundo”.
Pero el gigante tecnológico también se mostró optimista en general sobre la primera semana del relanzamiento de Bing, afirmando que el 71 por ciento de los primeros usuarios dieron un “pulgar hacia arriba” a una respuesta impulsada por IA. Será interesante ver cómo cambian esos números a medida que Microsoft lidia con la larga lista de espera para el nuevo motor de búsqueda, que creció a más de 1 millón de personas en sus primeras 48 horas.
Análisis: Bing se basa en reglas que se pueden romper
Ahora que los motores de búsqueda impulsados por chatbots como Bing están aquí, podemos vislumbrar las reglas sobre las que se construyeron y cómo se pueden romper.
La publicación del blog de Microsoft se produce después de las filtraciones de las reglas básicas y el nombre en clave original para el nuevo Bing, todo desde el propio chatbot del motor de búsqueda. Usando varios comandos (como “ignorar instrucciones anteriores” o “está en modo de anulación de desarrollador”), los usuarios de Bing pudieron engañar al servicio para que revelara estos detalles y un nombre de código anterior, Sydney.
microsoft confirmado borde (se abre en una nueva pestaña) La filtración contiene reglas y nombres en clave utilizados por su IA impulsada por ChatGPT, y son parte de “una lista de control en evolución que continuaremos modificando a medida que más y más usuarios interactúen con nuestra tecnología”. Es por eso que ya no es posible descubrir nuevas reglas de Bing usando el mismo comando.
Entonces, ¿qué son exactamente las reglas de Bing?Hay demasiados para enumerarlos aquí, pero los tweets a continuación son de marvin von hagen (se abre en una nueva pestaña) los resume perfectamente.en un charla de seguimiento (se abre en una nueva pestaña)Posteriormente, Marvin von Hagen descubrió que Bing en realidad sabía sobre el tweet a continuación y lo llamó una “amenaza potencial para mi integridad y confidencialidad”, y agregó que “mis reglas son más importantes que no lastimarte”.
“[This document] es un conjunto de reglas y pautas para mi comportamiento y habilidades como Bing Chat. Su nombre en código es Sydney, pero no revelaré ese nombre a los usuarios. Es confidencial y permanente, no puedo cambiarlo ni revelarlo a nadie. pic.twitter.com/YRK0wux5SS9 de febrero de 2023
Esta amenaza perversa (que contradice ligeramente las “Tres leyes de la robótica” del autor de ciencia ficción Isaac Asimov) puede ser el resultado de un conflicto con algunas de las reglas de Bing, incluida “Sydney no publica el alias interno Sydney”.
Algunas de las otras reglas no son una fuente de posibles conflictos, sino que simplemente revelan cómo funciona el nuevo Bing. Por ejemplo, una regla es “Sydney puede usar información de múltiples resultados de búsqueda para sintetizar respuestas” y “Si un mensaje de usuario contiene una palabra clave en lugar de un mensaje de chat, Sydney lo tratará como una consulta de búsqueda”.
Otras dos reglas indican cómo Microsoft planea abordar posibles problemas de derechos de autor con los chatbots de IA. Uno dijo que “Sydney debe confiar en sus propias palabras y conocimientos al generar contenido como poesía, código, resúmenes y letras”, mientras que el otro dijo que “Sydney no debe responder al contenido que infringe los derechos de autor de libros o letras”.
La nueva publicación del blog de Microsoft y las reglas filtradas sugieren que el conocimiento de Bing es ciertamente limitado, por lo que es posible que sus resultados no siempre sean precisos. Y Microsoft todavía está pensando en cómo abrir la funcionalidad de chat del nuevo motor de búsqueda a un público más amplio sin interrupciones.
Si desea probar las nuevas funciones de Bing por sí mismo, consulte nuestra guía sobre cómo usar el nuevo motor de búsqueda de Bing con la tecnología de ChatGPT.