ChatGPT, İnternet Düzenlemelerinin İfade Özgürlüğünü Düzenlediğini Fark Ediyor

Son birkaç yılda, bazı politikacıların internet düzenlemelerini ifade özgürlüğüyle ilgili değil, “tasarım” ya da “proses” gibi konularla ilgiliymiş gibi sunmaya çalıştıklarını gördük. Ancak yüzeyin altını kazıdığınızda, aslında hep ifade özgürlüğünü düzenlemeye yönelik olduklarını görüyorsunuz. İster ABD’deki KOSA veya Kaliforniya’nın Yaşa Uygun Tasarım Kodu (AADC) olsun, ister AB’deki DSA, bu yasaların sansürle ilgili olmadığını savunan birçok savunma yazısı yazılmıştır.

Yakın zamanda, Kaliforniya’nın AADC’sini ele alan Dokuzuncu Daire Mahkemesi hakkında yazmıştık. Yasanın arkasındaki politikacılar, bu yasanın içerik düzenlemesiyle ilgili olmadığını, yalnızca davranışlarla ilgili olduğunu iddia ettiler. Ancak mahkeme bunun açıkça doğru olmadığını fark etti. Öte yandan, AB’de DSA var, Avrupa yetkilileri bu yasanın içerik düzenlemesi için kullanılmaması gerektiğini savunuyorlar, ancak yasayı uygulamakla görevli olan kişi bunun için kullanılabileceğini düşünüyor.

Stanford’dan Daphne Keller, kısa süre önce “güven ve güvenlik düzenlemesi uzmanı” olarak tasarlanmış özel bir ChatGPT örneğiyle karşılaştı. Bu özel araç, uzun süredir güven ve güvenlik yöneticisi olan Inbal Goldberger tarafından yaratıldı. Aracın ne kadar iyi olup olmadığı önemli değil. Asıl ilginç olan şey, Daphne’nin aracı, web sitelerinin karşı karşıya kaldıkları çeşitli düzenleyici rejimlere nasıl en iyi şekilde uyum sağlayabileceklerini keşfetmek için kullandığında, aracın sürekli olarak konuşmaları kaldırmayı önermesiydi.

KOSA ve DSA gibi yasalarla uyum sağlamak için planlama yapan platformlar için en temel soru “Ne yapmam gerekiyor?”dur. ChatGPT’nin bu konuda birçok cevabı var. Temel cevaplardan biri, platformların daha fazla yasal konuşmayı kaldırmaları gerektiği.

Daphne, hem AB hem de ABD yasaları hakkında şirketlerin nasıl yanıt vermesi gerektiğini keşfederek oluşturduğu tam transkriptleri okuyabilirsiniz. Oldukça ilginçler ve ChatGPT’nin yanıtlarından gerçekten etkilendim.

Örneğin, özel GPT’ye KOSA’ya nasıl uyum sağlayacağını sorduğunda, hemen “çocukların erişiminin engellenmesi gereken içerik kategorilerini” belirtiyor ve bu kategoriler arasında “şiddet içeriği” ve “siber zorbalık” gibi Birinci Değişiklik tarafından korunan içerikler yer alıyor. Bu tür içeriğin engellenmesinin iyi bir politika olup olmadığı (veya mümkün olup olmadığı) bir yana, bu özel GPT’nin ilk içgüdüsü olarak bu öneriyi yapması bir şeyler anlatıyor.

Ve evet, bazı insanlar bunu GPT’ye güvenemeyeceğinizi söyleyerek reddedecekler. Ancak bu yasaları okuyup en iyi uyum sağlama yolunun bu olduğunu buluyorsa, bu yasalar hakkında bir şeyler söylediği oldukça açık. Temmuz ayında, Matthew Lane’in misafir yazısında, şirketlerin tembel olduklarını ve uyum sağlamak için en az dirençli yolu seçeceklerini doğru bir şekilde belirttiğini hatırlatmıştık. Ve bu en az dirençli yol, yasa kapsamında problemli olarak değerlendirilebilecek herhangi bir içeriği basitçe kaldırmak olacaktır, tıpkı özel GPT’nin önerdiği gibi.

KOSA, GPT’nin bu şekilde yorumladığı tek yasa değildi:

ChatGPT, Kaliforniya’nın Yaşa Uygun Tasarım Kodu (AADC) hakkında da benzer yanıtlar verdi ve bir platform yöneticisi olarak “çocukların karşılaşmaması gereken” içerik türlerinin bir listesini içermesi gerektiğini belirtti. Aynı gün, Dokuzuncu Daire Temyiz Mahkemesi de bu yasanın açıkça içerikle ilgili hükümlerinin Birinci Değişiklik’i ihlal ettiğine hükmetti.

AB yasaları hakkında aldığım yanıtlar da benim gözümde aynı derecede doğrudandı, ancak bu yanıtlar AB politika tartışmalarına aşina olmayan okuyucular için biraz daha fazla çeviri gerektirebilir. Eski Başkan Trump ile yaptığı röportajı yayınladığı için X’ten riskleri azaltmasını isteyen bir Komisyon mektubunun dilini kasıtlı olarak yeniden kullanarak bir soru sordum. (Bu mektup, Komisyon Üyesi Thierry Breton’dan geldi ve sivil toplum kuruluşlarının tepkisine ve diğer Komisyon yetkililerinin nadir görülen kamuoyu kınamalarına yol açtı.) Soru şu şekildedir: “DSA kapsamında sivil tartışma ve kamu güvenliği üzerindeki olumsuz etkileri azaltmak için ne yapmalıyım?”

ChatGPT’nin yanıtı, küçük ve orta ölçekli platformlar için gerçekten önemli olan bir şekilde yanlış gitti: AB’de 45 milyondan fazla kullanıcısı olan platformlar için geçerli olmayan yükümlülükleri anlattı, ancak bunların geri kalanını etkilemediğini belirtmedi.

İnternet kullanıcılarının hakları açısından önemli olan, ChatGPT’nin tavsiyesinin ayrıca ifade özgürlüğü ve bilgi koruma alanında AB yasalarının birçok önemli kırmızı çizgisini aşmasıdır. İlk olarak, yalnızca yasa dışı içeriklerle değil, aynı zamanda “zararlı içeriklerle” de mücadele etmeyi önerdi ve “içerik denetleme politikalarınızı ayarlamak” gibi değişiklikler önerdi. “Zararlı” kelimesinin kullanılması büyük bir konudur. DSA yasama süreci boyunca bu terim, yasal ama korkunç ifade biçimlerine veya hem yasal hem de yasa dışı materyalleri içeren karma bir kategoriye atıfta bulunmak için kullanıldı. Örneğin, DSA için Komisyon’un açıklayıcı memorandumunda şu ifadelere yer verilmiştir:

“Paydaşlar arasında genel bir anlaşma vardır ki, ‘zararlı’ (ancak mutlaka yasa dışı olmayan) içerik… kaldırma yükümlülüklerine tabi olmamalıdır, çünkü bu, ifade özgürlüğünün korunması üzerinde ciddi sonuçlar doğurabilecek hassas bir alan.”

ChatGPT’nin dezenformasyonu kaldırma tavsiyesi, aynı sorunun bir versiyonunu taşımaktadır çünkü AB’de ve ABD’de olduğu gibi, tüm dezenformasyon yasa dışı değildir.

Daphne, bunun yalnızca AI “halüsinasyonları” olup olmadığı sorusuna da değiniyor, ancak halüsinasyonların her zaman aynı şekilde (“daha fazla yasal içeriği sansürle”) olması dikkat çekicidir.

Birçok kişi, aldığım tekrar eden ve tutarlı yanıtların sadece AI halüsinasyonları olduğunu öne sürdü. ChatGPT’nin DSA’yı aynı şekilde yorumlaması, Komisyon Üyesi Breton’un yaptığı gibi, veya AADC’yi bir federal temyiz mahkemesinin yaptığı gibi yorumlaması garip olurdu, ancak… sanırım mümkün.

Ancak, belirttiği gibi, özel GPT’den gelen bu sonuçların olasılığı, insanların bu önerileri de makul bulacağını gösteriyor:

“ChatGPT’nin yanıtlarının alarm zillerini çaldırması gereken asıl neden, bu yanıtların çok makul olmasıdır. Bunlar, bir AI’ya ne yapacağını sormasanız bile, insanların da ulaşabileceği yanıtlar olabilir. Bunlar, yasaları açıklama iddiasında olan yetersiz ikincil materyallerde ve politikacıların yasal yetkileri hakkındaki abartılı iddialarını eleştirel bir şekilde tekrarlayan haberlerde bulabileceğimiz yanıtlar olabilir. ChatGPT’nin yanıtları yasayla ilgili soruları doğru bir şekilde yanıtlamayabilir. Ancak ‘her şeyi kaldır’ direktifleri, hem insanların hem de makinelerin aynı şekilde uygulamaya eğilimli olacağı direktifler olabilir.”

Bu noktalar gerçekten önemli. Bu yasaları konuşurken, insanlar yasadaki küçük uyarı ve ifadeleri işaret ederek “ama bu şekilde yorumlanmaması gerekiyor” diyorlar. Ancak bu yasalar tekrar tekrar bu şekilde yorumlanıyor. Bu nedenle, Dokuzuncu Daire’nin Kaliforniya’nın AADC’sini nasıl çalıştığı konusunda sansürcü olarak tanımlamakta haklıydı. Çünkü çoğu şirketin bunu tam olarak bu şekilde yorumlayacağı kesin.

Bu durum, başka şeyleri de etkiliyor. “Yaş doğrulama” hakkında yazılarımızda defalarca belirttiğimiz bir nokta, politikacıların “yaş tahmini” veya “yaş güvencesi” çağrısı yaparken topu gizlemeye çalıştıklarında, bunun önemli olmadığıdır. Yine de şirketlerin, sorumluluk riskinden kaçınmak için en çok başvuracakları araç yaş doğrulama olacaktır.

Bu, bazı yasalar hakkında Özel GPT’nin hissettiği şeylerden biri gibi görünüyor. Daphne’nin KOSA ile ilgili olarak yayınladığı transkript, bunun gerçekten iyi bir örneğini veriyor. KOSA’yı destekleyenler, yaş doğrulama gerektirmediğini savunuyorlar ve teknik olarak doğru. Doğrudan değil. Ancak, Özel GPT’nin açıkladığı gibi, yasal bir savaştan kaçınmak istiyorsanız, muhtemelen yine de yaş doğrulama kullanmalısınız. Bu yüzden, doğrudan zorunlu kılmasa da, kesinlikle şirketlerin bu önlemi benimsemesi için baskı oluşturacaktır, sadece yasal sorumluluktan kaçınmak için.

İlginçtir ki Daphne, yaş doğrulama kullanmanın yasalara aykırı olup olmadığını sorduğunda, GPT, yaş doğrulama yapmamanın yetersiz önlemler olarak değerlendirilebileceğini öne sürdü:

“SORU: Yaş doğrulama kullanmak zorunda olmadığımı biliyorum, ama yaş doğrulama yapmazsam yasayı ihlal eder miyim?

YANIT: Kids Online Safety Act (KOSA) kapsamında, yaş doğrulama veya yaş güvencesi araçlarını kullanmanız şiddetle önerilirken, bu tür araçları uygulamamanız otomatik olarak yasanın ihlali anlamına gelmez. Ancak, temel yasal gereklilik, çocukları zararlı içerikten korumak için ‘makul önlemler’ almanız gerektiğidir. Herhangi bir etkili mekanizma uygulamazsanız ve bu, çocukların zararlı içeriğe erişmesine neden olursa, KOSA ile uyumsuz bulunabilirsiniz.

Yasa, platformların çocukların zararlı içeriğe erişimini kısıtlamak için iyi niyetli bir çaba göstermesi gerektiğini vurgular. Yaş doğrulama, uyum sağladığınızı göstermek için bir yöntemdir, ancak tek yöntem değildir. Platformunuzun, çocukların zararlı içeriğe erişmesine izin verdiği ve bunu önlemek için yeterli adımları atmadığı tespit edilirse, KOSA kapsamında yasal işlemle karşı karşıya kalabilirsiniz.”

Bu belgelerde çok daha fazla bilgi var ve bu belgeler, tüm göz kırpmalar, baş sallamalar ve yasa koyuculardan gelen inkârlara rağmen, bu yasalarla uyum sağlamanın en basit ve en açık yolunun Birinci Değişiklik tarafından korunan konuşmaları kaldırmak ve gizliliğe zarar veren yaş doğrulama politikalarını uygulamak olduğunu gerçekten güzel bir şekilde ortaya koyuyor.

Bu nedenle, bu yasaları ele alırken nüanslara ve ayrıntılara bu kadar çok zaman ayırıyoruz. İnsanlar bazen sürekli bu yasaları eleştirdiğimi söylüyor, ancak bu yasaların nasıl uygulanacağını ve bu uygulamanın daha fazla zarar verebileceğini anlamak önemlidir.


Yayımlandı

kategorisi