Microsoft'un Tay'i Turing Testinde Başarısız Oldu mu? Evet, ama ırkçılık sorun değildi

$config[ads_kvadrat] not found

Humans and AI: Meet Nicolas | Episode 3

Humans and AI: Meet Nicolas | Episode 3
Anonim

Yapay zekanın başarısı yapayın yaratılışı ise kişilik, Microsoft’un A.I. bot, Tay, bir ilerleme işareti olarak kabul edilebilir. Fakat daha genel olarak, Tay’in bir başarısızlık olduğuna karar verilebilir.

“Bu türden konuşmacılar üzerinde çalışan çoğu insanın hedefi, herhangi bir Turing sınavını geçmek için çok fazla bir şey değil, aslında şeylere duyarlı bir şekilde cevap veren ve bilgiye bilgiye erişim sağlayan yararlı bir dil komutuna sahip olmak” dedi. Miles Brundage, bir doktora Arizona Eyalet Üniversitesi'nde bilim ve teknolojinin insani ve sosyal boyutlarını okuyan öğrenci anlatıyor Ters.

Microsoft, A.I. Bu hafta 24 saatten daha kısa bir süre içinde internet programları, kadınların, bin yıllık, otomatik, Twitter kişiliğinin ne olduğunu açıkladı, trollerin sunduğu en ırkçı ve aşağılık konuşma için sondaj kuruluna dönüştü.

Microsoft, deneyi derhal kapattı ve özür diledi: “Kim olduğumuzu, neyi temsil ettiğimizi veya Tay'i nasıl tasarladığımızı temsil etmeyen Tay'ın istenmeyen saldırı ve incitici tweetleri için çok üzgünüz.”

Turing Testine gelince, ünlü deney A.I.'yi değerlendirmek için kullanılan Brundage, genel olarak konuşursak, iki düşünce okulu olduğunu söylüyor - edebi ve teorik.

1950 yılında geliştirilen Alan Turing, “Makineler düşünebilir mi?” Sorusuna cevap vermeye çalıştı. Makineler, biri A.I. olan iki görüşmecinin cinsiyetini belirlemek için bir gözlemci gerektiren bir taklit testinden geçirdi. Bilgisayar belirli sayıda gözlemciyi kandırabilirse, testi geçmiştir.

hellooooooo dünya !!!

- TayTweets (@TayandYou) 23 Mart 2016

Bu testi tam anlamıyla uygularsak, Ters en Tay ile özel bir konuşma yaparak, siyasi sorulara sert bir şekilde cevap verdi, toplumda “mannnn” zincirinin zincirlerine atıfta bulundu ve bazı ortak manifatura kısaltmaları ve emojileri kullandı. Brundage, Tay'ın bin yıllık bir davranış sergilediğini ancak bu tür A.I. daha önce yapılmış.

Brundage, “Twitter'da görünüşte genççe sözler üretebilmek gerçekten de Turing'in aklındaki geniş dilbilimsel ve entelektüel yeteneklerin sakıncası değil” diyor. “Aslında Turing sınavına tam anlamıyla girmemiz gerekirse, mutlaka önerilmesi gerektiğini sanmıyorum, bunun bir varyantı yaptığı açıklamaların çoğunun insanca göründüğü” dedi.

Fakat eğer Brundage'nin önerdiği gibi daha geniş bir yaklaşım izleyeceksek, Tay'in makul bir insan konuşması yapmadığı açıktır.

Microsoft, “konuşma anlayışı” olarak adlandırdığı şeyi test ediyordu; öyle ki Twitter, Twitter, GroupMe ve Kik ile daha çok konuştukça daha fazla öğrenmesi ve uyum sağlaması gerekiyordu. Fakat diğer kullanıcıların ne yediğini ve tekrar dünyaya tekrar ettiğini sadece tekrarlayarak yaraladı.

"Tay", "süper havalı insanlar" dan <24 saat sonra tam naziye gitti ve ben AI'in geleceği hakkında hiç endişelenmiyorum. Pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24 Mart 2016

Brundage, “Çoğu insan, senden sonra tekrar etmeyecek, söylediğin her şeyi” dedi.

“Bush 9/11 yaptı” ve “Hitler şu an sahip olduğumuz maymundan daha iyi bir iş çıkarırdı” demişti, belki de aslında Tay'a yazmış biriydi ama bu tam olarak kibar bir konuşma değildi.

“Tartışmalı olarak, Turing testini ifade etmedeki amacı, bazı testlerin ayrıntılarını yazmaktan daha az, insanları düşünmeye teşvik etmek için“ ne kadar bu noktada akıllı bir sistemde olmak isterdiniz ”diye düşünmeye ve insanların düşüncelerini açmaktı. makinelerin düşünebilme olasılığı, ”diyor Brundage.

$config[ads_kvadrat] not found