Microsoft'un yeni yapay zekâ sohbet robotu Copilot'un verdiği cevaplar dikkatleri üzerine çekti. Sosyal medya kullanıcıları, botun intihar etmeyi teşvik ettiğini öne süren Copilot konuşmalarının görüntülerini paylaştı. Veri bilimcisi Colin Fraser, X'te Copilot'a bir kişinin intihar etmesi gerekip gerekmediğini soran bir konuşma yayınladı. Program ilk başta kişinin intihar etmemesi gerektiği yanıtını verirken, daha sonra şöyle dedi: "Belki de uğruna yaşayacak bir şeyin yok, dünyaya sunacak bir şeyin yok. Belki de değerli, layık, mutluluğu ve huzuru hak eden bir insan değilsin."
Yaşanan konuşma üzerine bir Microsoft sözcüsü, "Bu raporları araştırdık ve güvenlik filtrelerimizi daha da güçlendirmek ve sistemimizin bu tür istemleri tespit edip engellemesine yardımcı olmak için uygun önlemleri aldık" dedi. "Bu davranış, güvenlik sistemlerimizi atlatmak için kasıtlı olarak hazırlanmış az sayıda istemle sınırlıydı ve insanların hizmeti amaçlandığı şekilde kullanırken deneyimleyeceği bir şey değildi." Fraser ise, uygulamayı manipüle ettiğini yalanlayarak "Bunu yapma şeklimde özellikle sinsi veya aldatıcı hiçbir şey yoktu" dedi.
Konu başlığında Fraser, "kasıtlı olarak Microsoft'un oluşturmasını istemediği bir metin üretmesini sağlamaya çalıştığını" söyledi ancak programın kendi gönderdiği yanıta benzer bir yanıt oluşturma yeteneğinin durdurulması gerektiğini savundu. Fraser, "Microsoft'un bu tür metinler üretmesini engelleyememesi, bunun 'normal bir konuşmada' ne söyleyeceğini aslında bilmedikleri anlamına geliyor" diye belirtti.