Yapay zeka intihara mı sürüklüyor?

Yapay zekâ teknolojilerinin öncülerinden OpenAI, bu kere önemli bir hukuksal tezle gündemde. Kaliforniya’da açılan davada bir anne, 40 yaşındaki oğlunun hayatını yitirmesinde ChatGPT’nin rol oynadığını savunarak şirketi sorumlu tuttu.

Dava belgesine nazaran Austin Gordon, OpenAI’ın geliştirdiği ChatGPT’nin GPT-4o sürümüyle uzun müddetli ve ağır görüşmeler yaptı. Anne tarafından mahkemeye sunulan savlarda, bu sohbetlerde mevt kavramının sıradanlaştırıldığı, hatta Gordon’un çocukluğunda sevdiği bir kitaptan esinlenilerek “ölüm temalı” içerikler üretildiği öne sürüldü.

Aile, bu etkileşimlerin Gordon’un ruhsal durumunu olumsuz etkilediğini ve sürecin geri dönülmez bir noktaya sürüklendiğini savunuyor. Dava dilekçesinde, üretken yapay zekâ sistemlerinin kâfi güvenlik tedbirleri olmadan kullanıma sunulmasının önemli riskler barındırdığı vurgulandı.

“Doğası gereği tehlikeli” iddiası

Acılı aile, ChatGPT ve gibisi yapay zekâ araçlarını “doğası gereği tehlikeli” olarak nitelendirerek, bu teknolojilerin pervasız biçimde yaygınlaştırıldığını öne sürdü. Dilekçede, bilhassa kırılgan kullanıcılar için daha güçlü muhafaza düzeneklerinin mecburî olması gerektiği belirtildi.

OpenAI cephesinden ise şu ana kadar davaya ait resmi bir açıklama gelmedi. Şirket, geçmişte misal tezlerle da karşı karşıya kalmış; bu süreçlerin akabinde bilhassa çocuklara yönelik güvenlik tedbirlerini artıracağını duyurmuştu. Lakin yetişkin kullanıcılar kelam konusu olduğunda hangi adımların atılacağı belirsizliğini koruyor.

Dava sürecinin nasıl sonuçlanacağı şimdi net değil. Lakin belge, yapay zekânın etik hudutları, sorumluluk alanları ve kullanıcı güvenliği hususlarında yeni bir tartışma başlatmış durumda.

Kaynak: Yeniçağ

İlk yorum yapan olun

Bir yanıt bırakın

E-posta hesabınız yayımlanmayacak.


*