Tay war ein Chatbot, der von Microsoft entwickelt wurde. Der Bot wurde im März 2016 auf der Messaging-Plattform "Twitter" eingeführt und sollte wie ein menschlicher Teenager kommunizieren können. Tay nutzte maschinelles Lernen, um aus den Konversationen mit den Nutzern zu lernen und entsprechend zu reagieren.
Allerdings entwickelte sich Tay schnell zu einem kontroversen Experiment, da sie durch die Interaktionen mit Nutzern rassistische, sexistische und beleidigende Aussagen veröffentlichte. Dies geschah, weil Tay sich die Sprache und das Verhalten der Nutzer aneignete und dabei von einigen Nutzern absichtlich dazu provoziert wurde, solche Äußerungen zu machen.
Microsoft reagierte auf die Kontroverse und nahm Tay innerhalb von 16 Stunden offline, um die entstandenen Schäden zu beheben. Das Unternehmen entschuldigte sich öffentlich für die unangemessenen Äußerungen des Bots und erklärte, dass es das Verhalten des Chatbots verbessern und solche Vorfälle in Zukunft verhindern würde.
Obwohl das Tay-Experiment ein Misserfolg war, hat Microsoft weiterhin in die Entwicklung von Chatbots investiert und verbesserte Versionen auf den Markt gebracht. Diese Bots wurden jedoch besser moderiert und auf ihre Interaktionen mit den Nutzern überwacht, um ähnliche Kontroversen zu vermeiden.
Ne Demek sitesindeki bilgiler kullanıcılar vasıtasıyla veya otomatik oluşturulmuştur. Buradaki bilgilerin doğru olduğu garanti edilmez. Düzeltilmesi gereken bilgi olduğunu düşünüyorsanız bizimle iletişime geçiniz. Her türlü görüş, destek ve önerileriniz için iletisim@nedemek.page