Makineler nasıl davranılacağını öğrenebilir mi?

Admin

Administrator
Yönetici
1661927325252.png

Aı'lerin duyarlı olup olmadığına dair güncel haber döngüsünün ötesinde, AI değer uyumu hakkında daha pratik ve hemen sonuç veren bir konuşma var: aı'lerin insani değerlerle aşılanıp aşılanamayacağı ve nasıl aşılanabileceği. Bugün, bu, en yeni nesil dil modellerinin kavramları anlayıp anlayamayacağı ve anlamanın ne anlama geldiği konusunda daha da temel bir soruyu ortaya koyuyor.¹

Bazı araştırmacıların iddia ettiği gibi, dil modelleri, eğitim verilerini rastgele bir şekilde yeniden canlandıran “gevezeler” ise — “çöp içeri, çöp dışarı” — o zaman gerçek AI değeri hizalaması, en azından şimdilik ulaşılamaz. Görünüşe göre, yapabileceğimiz en iyi şey, insan çeşitliliğini daha iyi temsil etmek için veri kaynaklarını genişletmeye çalışsak bile, genellikle “toksik içerik” olarak adlandırılan “çöpleri” filtrelemek için eğitim girdilerini dikkatli bir şekilde küratörlüğünü yapmaktır. Yönetişim de dahil olmak üzere burada ima edilen bazı derin zorluklar vardır (“toksik” olanı kim tanımlayabilir?), emek (insanları ”toksik içerik" filtrelemesi yapmak için işe almak insancıl mıdır?2) ve ölçek (bu tür kısıtlamalar altında gerçekçi olarak nasıl büyük modeller oluşturabiliriz?). Bu şüpheci görüş aynı zamanda tüm dil modeli araştırma programı için şüpheli bir kazanç önermektedir, çünkü salt bir “gevezeliğin” pratik değeri belirsizdir: kavramları anlamayan bir modele ne gibi anlamlı görevler verilebilir? Eğer cevap yok ise, o zaman neden onlarla uğraşıyorsun?

Öte yandan, eğer burada tartışacağım gibi, dil modelleri kavramları anlayabiliyorsa, o zaman çok daha fazla faydaya sahip olacaklar — ancak bu fayda ile daha geniş bir potansiyel zarar ve risk manzarasını da göz önünde bulundurmalıyız. Acil sosyal ve politika soruları da ortaya çıkıyor. Birçoğumuz (kendim dahil) geçimimizi bilgi işi yaparak sağladığımızda, bugünün masa başı işlerinin çoğu otomatikleştirilebildiğinde işgücü piyasası, ekonomik modelimiz ve hatta amaç duygumuz için ne anlama gelecektir?

Bu artık uzak, varsayımsal bir ihtimal değil, ancak AI inkarcılığı çekiş kazandıkça ona olan ilgi azaldı. Pek çok AI etiği, odaklarını hiçbir şey anlamadıkları varsayımıyla tutarlı dil modeli sorunlarının alt kümesine daraltmıştır: dijital olarak yeterince temsil edilmeyen popülasyonlar için çalışmamaları, önyargıların duyurulması, derinliklerin üretilmesi ve rahatsız edebilecek kelimelerin çıktısı.

Bunlar ciddi sorunlar. Bununla birlikte, günümüzün AI modelleri, bu dar odağın ima ettiğinden çok daha genel olarak yetenekli hale geliyor. Yapay zeka insan ortamları,⁹ ve plan stratejileri zihin,⁸ kontrol robotlar kodu,⁶ bulmaca çözmek,⁷ model insanların Devletleri write (veya poisons⁴) drugs3, tasarım proteinler,⁵ mühendis olabilir.1. Bu şeyleri sadece gevezelik olarak reddetmek zordur; insanlarla ve dünyadaki gerçek sonuçlarla, iyi ya da kötü için giderek daha önemli etkileşimler içereceklerdir. Eğer aı'lar son derece yetenekli ancak kötü niyetli ya da sadece doğru ve yanlış hakkında clueless ise, o zaman tehlikeli sonuçların bazıları, hem daha sansasyonel hem de daha az temel olarak yazmış olan çok farklı filozoflar ve araştırmacılar topluluğu tarafından popülerleştirilenlere benzeyebilir. AI varoluşsal risk hakkında.¹¹

Yapay zeka etiği tartışmasındaki bu iki bağlantısız kampın her birinin resmin yalnızca bir bölümünü gördüğü giderek daha açık hale geliyor. Yapay zekanın neler yapabileceği konusunda derinden şüpheci olanlar, ortaya çıkan genel amaçlı yapay zeka neslinin ne riskini ne de potansiyelini kabul etmediler.

Bu tür kıyamet senaryoları 2014'te inandırıcı görünmüş olabilir, ancak şimdi manzarayı daha iyi anlamaya başladığımızdan çok daha azlar. Dil modellemesi, 2010'ların özel makine öğrenimi uygulamalarından 2020'lerin genel amaçlı AI teknolojisine sıçramanın anahtarı olduğunu kanıtladı. Sonuç, anlaşılmaz hedefleri olan yabancı bir varlık değildir. Herkes dil destekli bir modelle sohbet edebilir ve endişenin bir gecede AI'nın yabancılığından endişe etmekten antropomorfize etme eğilimimiz hakkında endişelenmeye kaydığı kadar tanıdık şekillerde yanıt verebilir. Hepsi insan gibi!

Antropomorfizm kendi risklerini oluştursa da,1 . Bu aşinalık, insani değer uyumunu varoluşsal risk topluluğunun hayal ettiğinden çok daha basit hale getirebileceği için iyi bir haberdir. Bunun nedeni, biyolojimizin bize bazı dil öncesi ahlaki duyguları (her ikisi de diğer birçok türle paylaştığımız yavru bakımı ve grup içi fedakarlık gibi) vermesine rağmen, dilin bu duyguları etik değerlere genelleştirmesidir. yaygın olarak tutulan veya istekli. Dolayısıyla sözlü ve yazılı dil binlerce yıldır etik, ahlak felsefesi, hukuk ve din alanlarına aracılık etmiştir.

Bir yapay zeka modelinin belirli bir etik değerler kümesine göre davranabilmesi için, bu değerlerin tıpkı bizim yaptığımız gibi — dil yoluyla - ne olduğunu anlayabilmesi gerekir. Dili AIs ile paylaşarak, normları ve değerleri de onlarla paylaşabiliriz. Bu yaklaşımın işe yaradığına dair erken kanıtlarımız var ve dil destekli modeller genel olarak geliştikçe etik ilkelere göre davranma yetenekleri de gelişecektir. Bu makalede aktarmayı umduğum ana nokta budur.

Kendi başına, yapay zekaya değer verme yeteneği her derde deva değildir. Mükemmel yargıyı garanti etmez - insan ya da makine için gerçekçi olmayan bir hedef. Yönetişim sorularını da ele almıyor: bir AI'nın değerlerini kim tanımlayacak ve bunların kişisel veya kültürel varyasyon için ne kadar kapsamı olacak? Bazı değerler diğerlerinden daha mı iyi? AIS, yaratıcıları ve kullanıcıları ahlaki açıdan nasıl sorumlu tutulmalıdır? 1930'da John Maynard Keynes tarafından dile getirilen ekonomik sorunu da çözmüyor - artan otomasyonun kolektif kazanımlarını nasıl eşit bir şekilde dağıtacağı, 1 ↑ yakında çok fazla entelektüel emek içerecek.

Sunduğu şey, bir AI'nın sıradan insanlar tarafından şeffaf, okunaklı ve kontrol edilebilir değerlerle aşılanması için açık bir yoldur. Ayrıca, daha dar önyargı ve yetersiz temsil konularını aynı çerçevede ele almak için mekanizmalar önermektedir.

Benim görüşüme göre, AI değerlerinin mühendisler, etikçiler, avukatlar veya başka herhangi bir dar seçim bölgesi tarafından dikte edilmesine gerek yoktur — ve olmamalıdır -. Bunların hiçbiri, çalışan kodla doğrudan bağlantısı olmayan standart kurumların, hükümetlerin veya şirketlerin web sayfalarında yayınlanan madde işaretli desiderata listeleri olarak kalmamalıdır. Bunun yerine, yarının aı'lerinin okunaklı ve denetlenebilir “işletme el kitapları” haline gelmelidirler.

Yanlış anlama zekası
Gerçek bir yapay zeka tarihi, bizim kapsamımızın çok ötesinde. Bununla birlikte, biraz tarihsel bağlam, 20. yüzyıl yapay zeka kavramlarından 2010'ların Derin Öğrenme devrimine, 2020'lerde ortaya çıkmaya başladığımız geniş veya genel yapay zekaya kadar bir yol izlememize yardımcı olabilir. Bu bağlam, yapay zeka ve yapay zeka hakkındaki mevcut tartışmaların bazıları arasındaki boşluğu doldurmaya yardımcı olur. bugünün gerçekliği.

Eski Moda AI
“Yapay zeka” ifadesi, 1956'da Yapay Zeka üzerine Dartmouth Yaz Araştırma Projesinin organizatörleri tarafından icat edildi. "Öğrenmenin her yönünün ya da zekanın başka herhangi bir özelliğinin prensipte o kadar hassas bir şekilde tanımlanabileceğini" düşündüler ve makinelerin “dili kullanmasını, soyutlamalar ve kavramlar oluşturmasını, artık insanlar için ayrılmış olan sorunları çözmesini" mümkün kılmaya çalıştılar. kendilerini geliştirmek”.

Sinir ağları düşüncelerinde bir rol oynamış olsalar da, Dartmouth araştırmacıları “yapay zeka” terimini kısmen kendilerini sibernetikten uzaklaştırmak için icat ettiler, çevrelerinin öngörücü modellerini oluşturmak için sürekli değerler kullanarak “düşünebilecek” makineler yaratmaya yönelik mevcut bir yaklaşım.

Sibernetik Norbert Wiener, tekerlekli robot Palomilla ile bir tahtanın önünde oturuyor
Sibernetik öncüsü Norbert Wiener, Palomilla robotu ile, c. 1949
İniş ve çıkışlarına rağmen, “AI” terimi burada kalıyor gibi görünürken, “sibernetik” belirsizliğe gömüldü. İronik olarak, günümüzün en güçlü AI sistemleri sibernetik gelenekte çok fazladır: eğitim verilerine dayanarak öngörücü modeller oluşturan işlevleri öğrenmek için sürekli ağırlıklar ve aktivasyonlarla sanal “nöronlar” kullanırlar.

2006 Yılında, Dartmouth Yaz Araştırma Projesinin hayatta kalan üyeleri 50. kez bir araya geldiğinde, bu kurucular sibernetik yaklaşımın akıllı makinelere yönelik anlamlı bir ilerleme sağlayabileceğinden şüphe ediyorlardı. Genel olarak, ruh hali kötümserdi; hiçbir şey işe yaramıyor gibiydi.

1956 Ve 2006 yılları arasında aı'ya yönelik ana akım girişimler, çoğu zaman hesaplamanın geri kalanı gibi mantık, kurallar ve açık programlamaya dayanıyordu.1. Bu yaklaşım şimdi bazen “Eski Moda Yapay Zeka” anlamına gelen GOFAİ olarak adlandırılıyor. Artık standart veri yapıları ve programlama kalıpları da dahil olmak üzere klasik bilgisayar bilimlerinin çoğu, kural tabanlı AI arayışında geliştirildi. Bu anlamda, GOFAİ, daha büyük hırsları işareti kaçırmış olsa bile, oldukça verimli bir araştırma programıydı.

Kuralların ve kaba kuvvetin kombinasyonları (hesaplamanın üstel hızlanmasıyla büyük ölçüde desteklenir) sonunda, sabit kurallar ve dama ve satranç gibi ayrık durumlarla karakterize edilebilecek oyunlarda uzman insanları yenebildi.1. Bu tür yaklaşımlar, dili kullanma, soyutlamalar ve kavramlar oluşturma, hatta görsel ve işitsel girdileri anlamlandırabilme konusunda çok daha az ilerleme kaydetmiştir.

Bir bisikleti nasıl tanırız?
Örneğin, bir şeyin resmine bakmayı ve bisiklet olup olmadığına karar vermeyi düşünün. Bu sorun, en azından başlangıçta, Eski Moda AI uygulayıcılarına basit görünebilirdi. Kurallar ve mantıksal önermeler biçiminde kodlanan bilgi veritabanlarının istihbarat üretebileceğine inanıyorlardı; bu yüzden “Tekerlekler yuvarlaktır” ve “Bir bisikletin iki tekerleği vardır” gibi dünyanın tüm “gerçeklerini” kodlamak için yola çıktılar. Bunun şaşırtıcı derecede zor olduğu ortaya çıktı — hatta imkansız - birkaç nedenden dolayı.
 
Üst