Uncategorized

Yapay zekâ avukatların başını yaktı | Kullanımı da yanılgılar da gitgide yaygınlaşıyor

Yapay zekâ yüzünden başı kaygıya giren avukatlar son devirde sık sık manşetlere çıkıyor. Bu olayların ortak noktası avukatların, yasal araştırma için ChatGPT üzere bir lisan modeline başvurması, yapay zekânın ise hiç var olmayan davalar uydurması. Avukatlar bu hayali kararları fark etmeden dava evrakına ekliyor, mahkeme ya da karşı taraf fark ettiğinde ise iş işten geçmiş oluyor.

2023’te görülen bir havacılık davasında, bu türlü kusurlu bir müracaat yapan avukat para cezasına çarptırıldı. Pekala, neden hâlâ bu yanlışlar devam ediyor?

AVUKATLAR YAPAY ZEKÂYA SARILIYOR

Yanıt hayli kolay: Vakit baskısı. Hukuk dünyasında iş yükü ağır, dava çok. Avukatlar, yasal araştırmalarını hızlandırmak için yapay zekâ takviyeli araçlara yöneliyor.

Westlaw ve LexisNexis üzere profesyonel hukuk data tabanları bile artık yapay zekâ takviyeli hizmetler sunuyor. Lakin birçok avukat, bu teknolojilerin nasıl çalıştığını tam olarak bilmiyor.

The Verge’ün haberine nazaran, 2023’te ceza alan bir avukat, ChatGPT’yi “süper arama motoru” sandığını itiraf etti. Meğer bu araçlar gerçek bilgi kadar inandırıcı ancak yanlış bilgiler de üretebiliyor.

“UYDURMA KARARLARLA GELMİŞLER!”

Florida’da gazeteci Tim Burke’ün davasında avukatlar, Anayasa’nın tabir özgürlüğü unsuruna dayanarak davanın düşürülmesini talep etti. Fakat sundukları dokümanlarda 9 adet uydurma dava kararı yer alıyordu. Hakim Kathryn Kimball Mizelle, başvuruyu büsbütün geçersiz saydı ve evraktan çıkardı.

Avukat Mark Rasch yanılgıyı, “ChatGPT Pro’nun ‘deep research’ özelliğini kullandım. Westlaw’un yapay zekâ aracını da denedim” kelamlarıyla kabul etti. Rasch’in bilmediği şey ise her ikisi yazılımın da hayali referanslar üretmiş olduğuydu.

Benzer olaylar diğer yerlerde de yaşandı. Yapay zekâ şirketi Anthropic’in avukatları, Claude AI ile hazırladıkları bir eksper tabirine yanlış müellif ismi ve başlık eklediler. Bir diğer örnekte, Minnesota’da derin düzmece görüntülerle ilgili yasa tasarısını destekleyen bir uzmanın sözünde de ChatGPT kaynaklı yanılgılı alıntılar çıktı.

California’da bir yargıç, State Farm sigorta şirketine açılan bir davada taraflardan birinin sunduğu belgeyi ikna edici bulmuştu. Lakin kararları denetim ettiğinde hiçbirinin var olmadığını gördü. Yargıç, “Okudum ve etkilendim… fakat kararlar yoktu” dedi.

BAROLAR: “GÜVENMEYİN, DENETİM EDİN!”

2024 yılında Amerikan Barolar Birliği, avukatlar için birinci defa yapay zekâ kullanımıyla ilgili resmi rehber yayınladı. Rehberde, “Avukatlar teknolojik gelişmeleri takip etmekle yükümlüdür. Yapay zekâ araçlarının nasıl çalıştığını anlamak zorundalar” denildi. Ayrıyeten, müvekkillerin özel bilgilerinin bu sistemlere yüklenmeden evvel kapalılık risklerinin yeterli değerlendirilmesi gerektiği vurgulandı.

Suffolk Hukuk Fakültesi Dekanı Andrew Perlman, yapay zekânın yararlı olduğunu fakat denetim edilmeden kullanılmaması gerektiğini belirterek, “Yapay zekâ; evrakları gözden geçirmek, muhtemel argümanları tartışmak ve bilgiye ulaşmak için çok tesirli. Lakin hâlâ kesin sorumluluk avukatta” dedi.

ABD Temsilciler Meclisi’nin Arizonalı üyesi avukat Alexander Kolodin ise ChatGPT’yi “stajyer avukat” üzere kullandığını söyledi. 2024’te, derin düzmece görüntülerle ilgili bir yasa tasarısında tarif kısmını ChatGPT’ye yazdırdığını itiraf eden Kolodin, “Ama son denetim yeniden bende. Zaten tecrübesiz bir stajyerin işini de direkt kullanmazsınız” sözlerini kullandı.

YAPAY ZEKÂYI KULLANMAYANLAR YETERSİZ SAYILABİLİR

Perlman’a nazaran gelecekte tartışma, “Bu avukat yapay zekâ kullandı mı?” değil, “Bu avukat neden hâlâ yapay zekâ kullanmıyor?” noktasına gelecek.

Ama birtakım yargıçlar hâlâ temkinli. Californialı yargıç Michael Wilner, “Hiçbir ehil avukat, araştırma ve yazım işini büsbütün bu teknolojiye emanet etmemeli” diyerek yapay zekâya körü körüne güvenmenin yanlış olduğunu vurguladı.

Kaynak : Hürriyet

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu