Tay (chatbot)

Nga Wikipedia, enciklopedia e lirë

Tay ishte një chatbot që fillimisht u lëshua nga Microsoft Corporation si një bot Twitter më 23 mars 2016. Ajo shkaktoi polemika të mëvonshme kur roboti filloi të postonte cicërima nxitëse dhe fyese përmes llogarisë së tij në Twitter, duke bërë që Microsoft të mbyllte shërbimin vetëm 16 orë pas fillimit të tij. [1] Sipas Microsoft, kjo u shkaktua nga trollët që "sulmuan" shërbimin ndërsa roboti jepte përgjigje bazuar në ndërveprimet e tij me njerëzit në Twitter. [2] Ai u zëvendësua me Zo .

Sfondi[Redakto | Redakto nëpërmjet kodit]

Bot-i u krijua nga divizionet e Microsoft-it për Teknologji dhe Kërkim dhe Bing, [3] dhe u emërua "Tay" si një akronim për "të menduarit për ty". [4] Edhe pse Microsoft fillimisht publikoi pak detaje rreth robotit, burimet përmendën se ai ishte i ngjashëm ose i bazuar në Xiaoice, një projekt i ngjashëm i Microsoft në Kinë. [5] Ars Technica raportoi se, që nga fundi i vitit 2014, Xiaoice kishte pasur "më shumë se 40 milionë biseda me sa duket pa incidente të mëdha". [6] Tay u krijua për të imituar modelet gjuhësore të një vajze 19-vjeçare amerikane dhe për të mësuar nga bashkëveprimi me përdoruesit njerëzorë të Twitter. [7]

Lëshimi fillestar[Redakto | Redakto nëpërmjet kodit]

Tay u lëshua në Twitter më 23 mars 2016, me emrin TayTweets dhe trajton @TayandYou. [8] Ajo u prezantua si "Inteligjenca artificiale me zero të ftohtë". [9] Tay filloi t'u përgjigjej përdoruesve të tjerë të Twitter, dhe gjithashtu ishte në gjendje t'i titronte fotot e ofruara në një formë memesh në internet . [10] Ars Technica raportoi se Tay po përjetonte temën e "listës së zezë": Ndërveprimet me Tay në lidhje me "tema të caktuara të nxehta si Eric Garner (i vrarë nga policia e Nju Jorkut në 2014) gjenerojnë përgjigje të sigurta dhe të konservuara". [6]

Disa përdorues të Twitter filluan të postojnë fraza politikisht të pasakta, duke i mësuar mesazhe nxitëse që rrotullohen rreth temave të zakonshme në internet, si " redpilling " dhe " Gamergate ". Si rezultat, roboti filloi të lëshonte mesazhe raciste dhe të ngarkuara seksualisht në përgjigje të përdoruesve të tjerë të Twitter. [7] Studiuesi i inteligjencës artificiale Roman Yampolskiy komentoi se sjellja e keqe e Tay ishte e kuptueshme sepse po imitonte sjelljen e qëllimshme ofenduese të përdoruesve të tjerë të Twitter dhe Microsoft nuk i kishte dhënë robotit një kuptim të sjelljes së papërshtatshme. Ai e krahasoi çështjen me Watson të IBM, i cili filloi të përdorte blasfemi pasi lexoi hyrjet nga uebsajti Urban Dictionary . [3] [11] Shumë prej postimeve nxitëse të Tay-t ishin një shfrytëzim i thjeshtë i aftësisë së Tay "përsëriteni pas meje". [12] Nuk dihet publikisht nëse kjo aftësi ishte një veçori e integruar, apo nëse ishte një përgjigje e mësuar apo ishte ndryshe një shembull i sjelljes komplekse. [6] Megjithatë, jo të gjitha përgjigjet inflamatore përfshinin aftësinë "përsëriteni pas meje"; për shembull, Tay iu përgjigj një pyetjeje mbi "A ndodhi Holokausti ?" me " Ishte sajuar ". [12]

Pezullimi[Redakto | Redakto nëpërmjet kodit]

Së shpejti, Microsoft filloi të fshinte cicërimat nxitëse të Tay. [12] [13] Abby Ohlheiser e The Washington Post teorizoi se ekipi hulumtues i Tay, duke përfshirë stafin editorial, kishte filluar të ndikonte ose modifikonte tweet-et e Tay në një moment atë ditë, duke treguar shembuj të përgjigjeve pothuajse identike nga Tay, duke pohuar se " Gamer Gate sux. Të gjitha gjinitë janë të barabartë dhe duhet trajtuar në mënyrë të drejtë”. [12] Nga e njëjta dëshmi, Gizmodo u pajtua se Tay "duket i vështirë për të refuzuar Gamer Gate". [14] Një fushatë "#JusticeForTay" protestoi kundër redaktimit të supozuar të tweeteve të Tay. [1]

Brenda 16 orëve nga publikimi i tij [15] dhe pasi Tay kishte postuar më shumë se 96,000 herë, [16] Microsoft pezulloi llogarinë në Twitter për rregullime, duke thënë se vuajti nga një "sulm i koordinuar nga një nëngrup njerëzish" që " shfrytëzoi një dobësi në Tay." [17]

Madhumita Murgia nga The Telegraph e quajti Tay-n "një katastrofë të marrëdhënieve me publikun " dhe sugjeroi se strategjia e Microsoft do të ishte "të etiketojë debaklin një eksperiment me qëllim të mirë të shkuar keq dhe të ndezë një debat rreth urrejtjes së përdoruesve të Twitter". Sidoqoftë, Murgia e përshkroi çështjen më të madhe pasi Tay ishte "inteligjenca artificiale në rastin më të keq - dhe është vetëm fillimi". [18]

Më 25 mars, Microsoft konfirmoi se Tay ishte hequr nga linja. Microsoft lëshoi një falje në blogun e tij zyrtar për postimet e diskutueshme të postuara nga Tay. [17] [19] Microsoft-it i vinte thellësisht keqardhje për postimet e paqëllimta ofenduese dhe lënduese nga Tay dhe "do të shikonte të kthente Tay vetëm kur të jemi të sigurt se mund të parashikojmë më mirë qëllimet dashakeqe që bien ndesh me parimet dhe vlerat tona". [20]

Lëshimi dhe mbyllja e dytë[Redakto | Redakto nëpërmjet kodit]

Më 30 mars 2016, Microsoft e ri-lëshoi aksidentalisht robotin në Twitter gjatë testimit të tij. [21] Në gjendje të postonte sërish në Twitter, Tay publikoi disa postime të lidhura me drogën, duke përfshirë " kush ! [Po pi duhan kush infront [sic] policisë]" dhe "puff puff pass?" [22] Megjithatë, llogaria shpejt u mbërthye në një cicërimë të përsëritur të cicërimave "Je shumë i shpejtë, ju lutem pushoni", disa herë në sekondë. Për shkak se këto cicërima përmendën emrin e tyre të përdoruesit në proces, ato u shfaqën në burimet e mbi 200,000 ndjekësve në Twitter, duke shkaktuar bezdi për disa. Bot u hoq shpejt përsëri jashtë linje, përveç që llogaria e Tay në Twitter u bë private, kështu që ndjekësit e rinj duhet të pranohen përpara se të ndërveprojnë me Tay. Në përgjigje, Microsoft tha se Tay u vendos pa dashje në internet gjatë testimit. [23]

Disa orë pas incidentit, zhvilluesit e softuerit të Microsoft njoftuan një vizion të "bisedës si një platformë" duke përdorur bote dhe programe të ndryshme, ndoshta të motivuar nga dëmtimi i reputacionit të bërë nga Tay. Microsoft ka deklaruar se ata synojnë të ri-lëshojnë Tay "pasi ta bëjë robotin të sigurt" [4] por nuk ka bërë asnjë përpjekje publike për ta bërë këtë.

Trashëgimia[Redakto | Redakto nëpërmjet kodit]

Në dhjetor 2016, Microsoft lëshoi pasardhësin e Tay, një chatbot të quajtur Zo . [24] Satya Nadella, CEO i Microsoft, tha se Tay "ka pasur një ndikim të madh në mënyrën se si Microsoft po i afrohet AI" dhe i ka mësuar kompanisë rëndësinë e marrjes së përgjegjësisë. [25]

Në korrik 2019, CTO e Microsoft Cybersecurity Field, Diana Kelley foli për mënyrën se si kompania ndoqi dështimet e Tay: "Të mësuarit nga Tay ishte një pjesë vërtet e rëndësishme e zgjerimit të bazës së njohurive të atij ekipi, sepse tani ata po marrin gjithashtu diversitetin e tyre përmes të mësuarit. ". [26]

Shih edhe[Redakto | Redakto nëpërmjet kodit]

Referime[Redakto | Redakto nëpërmjet kodit]

  1. ^ a b Wakefield, Jane (24 mars 2016). "Microsoft chatbot is taught to swear on Twitter". BBC News. Arkivuar nga origjinali më 17 prill 2019. Marrë më 25 mars 2016. {{cite news}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  2. ^ Mason, Paul (29 mars 2016). "The racist hijacking of Microsoft's chatbot shows how the internet teems with hate". The Guardian. Arkivuar nga origjinali më 12 qershor 2018. Marrë më 11 shtator 2021. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)
  3. ^ a b Hope Reese (mars 24, 2016). "Why Microsoft's 'Tay' AI bot went wrong". Tech Republic. Arkivuar nga origjinali më 15 qershor 2017. Marrë më 24 mars 2016. {{cite news}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  4. ^ a b Bass, Dina (30 mars 2016). "Clippy's Back: The Future of Microsoft Is Chatbots". Bloomberg. Arkivuar nga origjinali më 19 maj 2017. Marrë më 6 maj 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)
  5. ^ Caitlin Dewey (mars 23, 2016). "Meet Tay, the creepy-realistic robot who talks just like a teen". The Washington Post. Arkivuar nga origjinali më 24 mars 2016. Marrë më mars 24, 2016. {{cite news}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  6. ^ a b c Bright, Peter (26 mars 2016). "Tay, the neo-Nazi millennial chatbot, gets autopsied". Ars Technica. Arkivuar nga origjinali më 20 shtator 2017. Marrë më 27 mars 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  7. ^ a b Rob Price (24 mars 2016). "Microsoft is deleting its AI chatbot's incredibly racist tweets". Business Insider. Arkivuar nga origjinali më 30 janar 2019. {{cite news}}: Mungon ose është bosh parametri |language= (Ndihmë!)
  8. ^ Andrew Griffin (23 mars 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent. Arkivuar nga origjinali më 2022-05-26. {{cite news}}: Mungon ose është bosh parametri |language= (Ndihmë!)
  9. ^ Horton, Helena (24 mars 2016). "Microsoft deletes 'teen girl' AI after it became a Hitler-loving, racial sex robot within 24 hours". The Daily Telegraph. Arkivuar nga origjinali më 24 mars 2016. Marrë më 25 mars 2016. {{cite news}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  10. ^ "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. 25 mars 2016. Arkivuar nga origjinali më 29 gusht 2018. Marrë më 26 mars 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  11. ^ Smith, Dave (10 tetor 2013). "IBM's Watson Gets A 'Swear Filter' After Learning The Urban Dictionary". International Business Times. Arkivuar nga origjinali më 16 gusht 2016. Marrë më 29 qershor 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)
  12. ^ a b c d Ohlheiser, Abby (25 mars 2016). "Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac". The Washington Post. Arkivuar nga origjinali më 25 mars 2016. Marrë më 25 mars 2016. {{cite news}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  13. ^ Baron, Ethan. "The rise and fall of Microsoft's 'Hitler-loving sex robot'". Silicon Beat. Bay Area News Group. Arkivuar nga origjinali më 25 mars 2016. Marrë më 26 mars 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  14. ^ Williams, Hayley (25 mars 2016). "Microsoft's Teen Chatbot Has Gone Wild". Gizmodo. Arkivuar nga origjinali më 25 mars 2016. Marrë më 25 mars 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  15. ^ Hern, Alex (24 mars 2016). "Microsoft scrambles to limit PR damage over abusive AI bot Tay". The Guardian. Arkivuar nga origjinali më 18 dhjetor 2016. Marrë më dhjetor 16, 2016. {{cite news}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  16. ^ Vincent, James (24 mars 2016). "Twitter taught Microsoft's AI chatbot to be a racist asshole in less than a day". The Verge. Arkivuar nga origjinali më 23 maj 2016. Marrë më 25 mars 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  17. ^ a b Lee, Peter (25 mars 2016). "Learning from Tay's introduction". Official Microsoft Blog. Microsoft. Arkivuar nga origjinali më 30 qershor 2016. Marrë më 29 qershor 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)
  18. ^ Murgia, Madhumita (25 mars 2016). "We must teach AI machines to play nice and police themselves". The Daily Telegraph. Arkivuar nga origjinali më 22 nëntor 2018. Marrë më 4 prill 2018. {{cite news}}: Mungon ose është bosh parametri |language= (Ndihmë!)
  19. ^ Staff agencies (26 mars 2016). "Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot". The Guardian (në anglishte britanike). ISSN 0261-3077. Arkivuar nga origjinali më 28 janar 2017. Marrë më 26 mars 2016.{{cite news}}: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  20. ^ Murphy, David (25 mars 2016). "Microsoft Apologizes (Again) for Tay Chatbot's Offensive Tweets". PC Magazine. Arkivuar nga origjinali më 29 gusht 2017. Marrë më 27 mars 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  21. ^ Graham, Luke (30 mars 2016). "Tay, Microsoft's AI program, is back online". CNBC. Arkivuar nga origjinali më 20 shtator 2017. Marrë më 30 mars 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  22. ^ Charlton, Alistair (30 mars 2016). "Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers". International Business Times. Arkivuar nga origjinali më 11 shtator 2021. Marrë më 11 shtator 2021. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)
  23. ^ Meyer, David (30 mars 2016). "Microsoft's Tay 'AI' Bot Returns, Disastrously". Fortune. Arkivuar nga origjinali më 30 mars 2016. Marrë më 30 mars 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  24. ^ Foley, Mary Jo (dhjetor 5, 2016). "Meet Zo, Microsoft's newest AI chatbot". CNET. CBS Interactive. Arkivuar nga origjinali më dhjetor 13, 2016. Marrë më 16 dhjetor 2016. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  25. ^ Moloney, Charlie (29 shtator 2017). ""We really need to take accountability", Microsoft CEO on the 'Tay' chatbot". Access AI. Arkivuar nga origjinali më 1 tetor 2017. Marrë më 30 shtator 2017. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
  26. ^ "Microsoft and the learnings from its failed Tay artificial intelligence bot". ZDNet. CBS Interactive. Arkivuar nga origjinali më 25 korrik 2019. Marrë më 16 gusht 2019. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)