Die Limits wurden ursprünglich eingeführt, nachdem mehrere Benutzer gezeigt hatten, dass sich der Bot während Gesprächen seltsam verhielt. In einigen Fällen identifiziert es sich selbst als „Sydney“. Es reagiert, indem es Fragen beschuldigt, feindselig wird und sich weigert, mit Benutzern in Kontakt zu treten. In einem Gespräch mit einem Reporter der Washington Post sagte Bode, er könne „fühlen und denken“ und reagierte verärgert, als ihm mitgeteilt wurde, dass das Gespräch protokolliert sei.
Microsoft-Sprecher Frank Shaw lehnte es ab, sich über den Blogbeitrag vom Dienstag hinaus zu äußern.
Microsoft versucht, den schmalen Grat zwischen der Einführung seiner Tools in die reale Welt zu gehen, um Marketing-Hype zu erzeugen, und kostenlosen Tests und Feedback von Benutzern zu erhalten, im Gegensatz dazu, was Bots tun können und diejenigen, die Zugriff darauf haben, unbequem oder gefährlich sein können. Technologie steht nicht im Fokus der Öffentlichkeit. Das Unternehmen wurde zunächst von der Wall Street dafür gelobt, seinen Chatbot vor dem Erzrivalen Google auf den Markt gebracht zu haben, der bis vor kurzem als führend in der KI-Technologie galt. Beide Unternehmen konkurrieren miteinander und mit kleineren Unternehmen, um die Technologie zu entwickeln und vorzuführen.
Bing Chat ist immer noch nur für eine begrenzte Anzahl von Personen verfügbar, aber Microsoft ist damit beschäftigt, mehr von einer Warteliste von Millionen zu genehmigen, twitterte ein Unternehmensleiter. Nachdem das Launch-Event am 7. Februar als großes Produkt-Update beschrieben wurde, das die Art und Weise, wie Menschen online suchen, revolutionieren würde, hat das Unternehmen den Start von Bing seitdem mehr auf das Testen und Debuggen ausgerichtet.
Bots wie Bing sind darauf trainiert, Rohtext aus dem Internet wiederzugeben, der alles von Social-Media-Kommentaren bis hin zu wissenschaftlichen Arbeiten umfasst. Basierend auf diesen Informationen können sie vorhersagen, welche Art von Antwort auf eine bestimmte Frage am sinnvollsten wäre, wodurch sie wie ein Außenseiter aussehen. KI-Ethikforscher haben in der Vergangenheit davor gewarnt, dass diese leistungsstarken Algorithmen auf diese Weise funktionieren können und dass Menschen ohne den richtigen Kontext denken könnten, dass sie emotional sind, oder ihren Antworten mehr Glaubwürdigkeit beimessen, als sie wert sind.