Tay adalah sebuah chatterbot intelijensi artifisial untuk platform Twitter yang dirilis oleh Microsoft Corporation pada 23 Maret 2016. Tay menyebabkan kontroversi karena mengeluarkan kicauan-kicauan tidak menyenangkan[1] dan di-nonaktif-kan setelah sekitar 16 jam setelah diluncurkan.

Tay
TipeChatterbot
Versi pertama23 Maret 2016
Genrechatterbot intelijensi artifisial
Bahasa
Daftar bahasa
Informasi pengembang
PengembangMicrosoft Research, Bing
Facebook: thatbasicbot Twitter: TayandYou
Bagian dari
Sunting di Wikidata Sunting di Wikidata • Sunting kotak info • L • B
Info templat
Bantuan penggunaan templat ini

Pembuatan sunting

Bot tersebut dibuat oleh divisi Technology and Research and Bing dari Microsoft.[2] Meskipun Microsoft awalnya mengeluarkan beberapa penjelasan mengenai bot tersebut, sumber-sumber mengatakan bahwa bot tersebut memiliki kesamaan atau berdasarkan pada Xiaoice, sebuah proyek yang mirip dengan Microsoft di China.[3] Ars Technica menyebut Xiaoice "memiliki lebih dari 40 juta anggota konservasi yang muncul tanpa insiden besar" "sejak akhir 2014".[4] Tay dirancang dengan mimik susunan bahasa dari seorang gadis Amerika berumur 19 tahun, dan digunakan untuk berinteraksi dengan pengguna-pengguna manusia di Twitter.[5]

Perilisan awal sunting

Tay dirilis di Twitter pada 23 Maret 2016 dengan nama TayTweets dan menangani @TayandYou.[6] Bot tersebut dipersembahkan sebagai "The AI with zero chill".[7] Tay mulai memberi jawaban kepada pengguna-pengguna Twitter lainnya, dan juga mengomentari foto-foto yang terdapat di Twitter dalam bentuk meme-meme Internet.[8]

Perilisan kedua sunting

Ketika mengetes Tay, Microsoft secara tak sengaja merilis kembali bot tersebut di Twitter pada 30 Maret 2016.[9]

Referensi sunting

  1. ^ Wakefield, Jane. "Microsoft chatbot is taught to swear on Twitter". BBC News. Diakses tanggal 25 Maret 2016. 
  2. ^ Hope Reese (24 Maret 2016). "Why Microsoft's 'Tay' AI bot went wrong". Tech Republic. 
  3. ^ Caitlin Dewey (23 Maret 2016). "Meet Tay, the creepy-realistic robot who talks just like a teen". The Washington Post. 
  4. ^ Kesalahan pengutipan: Tag <ref> tidak sah; tidak ditemukan teks untuk ref bernama ArsT
  5. ^ Rob Price (24 Maret 2016). "Microsoft is deleting its AI chatbot's incredibly racist tweets". Business Insider. 
  6. ^ Andrew Griffin (23 Maret 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent. 
  7. ^ Horton, Helena. "Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours". The Daily Telegraph. Diakses tanggal 25 March 2016. 
  8. ^ "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. Diakses tanggal 26 Maret 2016. 
  9. ^ Graham, Luke (30 Maret 2016). "Tay, Microsoft's AI program, is back online". CNBC. Diakses tanggal 30 Maret 2016. 

Pranala luar sunting