Alman Etik Konseyi Başkanı Alena Buyx. /resim ittifakı, Michael Kappeler
Berlin – Alman Etik Kurulu, tıpta yapay zekanın (AI) kullanımına katı şartlar getiriyor: Diğer şeylerin yanı sıra, karar verme süreci artık teknik olarak anlaşılmaz olan makine öğrenimi uygulamalarının kullanımını gerekçesiz buluyor. birçok bağlamda. Bu, oldukça gelişmiş AI programlarının büyük bir bölümünü etkiler.
Yapay sinir ağları giderek daha karmaşık hale geliyor – ve giderek daha opak hale geliyor. Belirli uygulamaların geliştiricileri bile, yazdıkları algoritmaların A girdisinden B çıktısını tam olarak nasıl ürettiğini artık çoğu kez ayrıntılı olarak anlayamıyor.
Bu marjinal bir fenomen değil, tıpta bulunanlar gibi oldukça karmaşık AI uygulamalarının merkezi bir özelliğidir. ChatGPT gibi Büyük Dil Modelleri (LLM) de bunları paylaşır. Aynısı, tıbbi bakım ve araştırmadaki karmaşık yapay zeka uygulamaları için de geçerlidir.
Etik Kurulu, tıbbın yanı sıra eğitim, halkla iletişim ve yönetim alanlarını da dikkate alan yapay zekanın getirdiği zorluklarla ilgili bugün yayınladığı bildiride, tıpta uygulama için bazı temel görüşler formüle etti.
Son iki yılda beyanı hazırlayan kurum, kendisini yalnızca insan eyleminin önceliğine yönelik sık sık dile getirilen taleple sınırlamadı. Bunun yerine, değerlendirme her zaman bağlama, uygulamaya ve kişiye özgü olmalı ve ayrıca insan eylemi unsurlarının değiştirilme derecesine göre farklılaştırılmalıdır.
Temel kural, yalnızca belirli bir uygulamanın kullanımının değil, aynı zamanda geliştirmeden araştırma kullanımına ve sağlık hizmetlerinde uygulamaya kadar tüm eylem zincirinin etik standartları karşılaması, sürekli izlenmesi ve hedefe yönelik olarak daha da geliştirilmesidir. avantajlar kademeli olarak iyileştirilir ve tehlikelerden kaçınılır.
Etik Kurulu, AI algoritmalarının nasıl çalıştığını açıklama sorusunda belirli bir sorun görüyor. Tamamen teknik bir opaklık, algoritmaların gizliliği ve patent koruması nedeniyle opaklıktan önemli ölçüde farklıdır.
Açıklamada, “Şeffaflık şartı farklı derecelere izin veriyor, bu nedenle uygulama alanına bağlı olarak neyin kime, ne ölçüde ve ne amaçla açıklanabilir olması gerektiği kontrol edilmelidir” denildi.
Çünkü temel ilke o kadar da yeni değil: Aslında tıpta, tam etki mekanizmaları kullanıcı için yalnızca belirsiz bir şekilde şeffaf olan teknik cihazların kullanımına ilişkin pek çok örnek var. Aynısı, somut eylem mekanizmalarına ilişkin nedensel bilgi sınırlıysa, belirli müdahalelerin mantıklı bir şekilde planlanabileceği ve uygulanabileceği bilgisi için de geçerlidir.
“Modern tıptaki mekanizasyon derecesi göz önüne alındığında, tedavi eden kişilerin kullandıkları teknik yardımcıların içsel süreçlerini her zaman ayrıntılı olarak görmeleri, bu süreçler bir uzman tarafından anlaşılıp kontrol edilebildiği sürece ne mümkün ne de gereklidir. en azından uygun organlar tarafından yeterli ölçüde,” diye yazıyor Etik Konseyi.
Bu nedenle uygun test, belgelendirme ve denetim önlemleri daha da önemlidir. İlgili sistemlerin düzgün çalışmasını ve sorumlu bir şekilde kullanılmasını sağlamak için kullanılmalıdırlar.
Güvenilir yapay zeka sistemlerinin sertifikasyonu, özellikle özerklik ve kontrol, adalet, şeffaflık, güvenilirlik, güvenlik ve veri koruma ile ilgili olarak minimum ve uygulamayla ilgili özel gerekliliklere uygunlukla ilgili olmalıdır. Ancak tüm bunlarda, daha kesin bir anlayış elde edebilmek, kullanıcılarla, yani çoğu durumda doktorlarla ilgilidir.
Özel etik patlayıcılık
Etik Kurulu, kara kutu fenomeni söz konusu olduğunda bunu farklı görüyor: “Özellikle etik patlama, sistemi geliştiren ve programlayan kişilerin bile belirli bir sonucun nasıl ortaya çıktığını artık tam olarak anlayamadığı yapay zeka sistemleridir.”
Etik Konseyi’ne göre, bu AI sistemleri, hayatta kalma ve yaşam kalitesinin temel yönleri için ciddi sonuçları olan tıbbi karar önerileri sunar sunmaz, temel işlevleri ve iş süreçleri, kendi kaderini tayin eden kullanımı sağlamak için açıklanabilir ve yorumlanabilir olmalıdır.
Alena Buyx başkanlığındaki komite, “Uygulamaya ilişkin şeffaflık gereklilikleri (…) karşılanamıyorsa, tıbbi bakımın bu alanda kullanılması söz konusu olamaz.”
Öte yandan araştırmada, Etik Kurulu hem büyük potansiyel hem de büyük sınırlamalar görüyor ve bunlardan yeni talimatlar çıkarıyor: Çünkü yapay zeka tarafından büyük miktarda verinin otomatik olarak işlenmesi, önemli ölçüde daha fazla faktör arasındaki korelasyonları daha hızlı ve daha iyi keşfetme potansiyeline sahip. artan bilgi işlem gücü nedeniyle ve neden-sonuç ilişkileri hakkında yeni hipotezler geliştirmek.
Ancak aynı zamanda, daha fazla verinin otomatik olarak nedensel etkiler hakkında daha fazla bilgiye yol açacağına inanmak bir yanlış anlamadır. “Korelasyon ve nedensellik arasındaki fark nedeniyle, makine veri analizinin sonuçları, bulunan korelasyon bolluğundaki ilgili nedensel etkileri belirlemek ve böylece terapiyle ilgili nedensel bilginin kapsamını genişletmek için her zaman bağımsız doğrulama ve doğrulama gerektirir.” Etik Kurulu yazar. Daha basit bir ifadeyle, insanlar her zaman araştırmada nihai otorite olarak kalmalıdır.
Yazarlar, AI uygulamalarının insan eyleminin yerini ne ölçüde aldığına göre bir ayrım yapmaya önem vermesine rağmen, sağlık hizmetlerinde de durum benzerdir. Dar değiştirme, orta düzey değiştirme ve geniş kapsamlı değiştirme hakkında konuşuyoruz.
Bu nedenle, örneğin teşhis alanındaki karar destek sistemlerinde, yani laboratuvar teşhisinin çeşitli parametrelerinin bilgisayar destekli analizi, görüntü işleme ve hastanın otomatik incelemesi yoluyla karar verme süreçlerini modellemeye ve otomatikleştirmeye çalışan sistemler yakın bir ikamedir. dosyalar ve bilimsel veritabanları.
Tıbbi bir bakış açısından, bunların zaten somut avantajları vardır: hücre ve doku yapılarındaki patolojik değişiklikleri eskisinden daha erken tespit etmeye yardımcı olabilirler ve böylece etkilenen kişinin bireysel koşullarına göre uyarlanmış başarılı bir tedavi olanaklarını geliştirebilirler.
Ek olarak, dijital görüntülerin hızlandırılmış değerlendirmesi, tıp personelini tekdüze rutin işlerden kurtarabilir ve ideal olarak bulguları kişisel bir görüşmede iletmek için daha fazla zaman kazandırabilir.
Konuyla ilgili
Alman tıp dergisi baskısı
Haberler
Öte yandan, öncelikle alışkanlık etkilerinden kaynaklanan riskler vardır: Belirli görevlerin teknik sistemlere aşamalı olarak devredilmesinin bir sonucu olarak, doktorlar kendi yeterliliklerini giderek daha az kullandıkları için giderek kaybedebilirler.
Her şeyden önce, otomasyon tehlikeler barındırır: Kendi ampirik bilgilerini kaybetmeleri nedeniyle, doktorlar bu tür aletleri kullanırken tavsiyelerini körü körüne takip ederek özen görevlerini ihlal etme eğiliminde olabilirler.
Öte yandan orta ölçekli ikameler, gelecekte tıp işini daha da değiştirecektir: Bir örnek, anesteziyoloji uzmanlarını destekleyen algoritmalar olabilir.
Bu tür algoritmaların gelecekte hastaların ölüm riskini gerçek zamanlı olarak hesaplayabileceği düşünülebilir. Ek olarak, daha önce anestezi personeli için ayrılan çalışma koşullarındaki durum değişikliklerini de otomatik olarak tetikleyebilirler – örneğin anestezik dozajı veya ilave katekülamin uygulaması.
Bunun sonucu, gelecekteki tıbbi görevlerin hasta bilgileri gibi ameliyat öncesi ve sonrası görevlere giderek daha fazla odaklanması olabilir.
Psikoterapide geniş kapsamlı değişiklikler
Öte yandan, geniş kapsamlı değiştirmeler hala gelecekte olacak – ancak bu çok hızlı bir şekilde değişebilir. Örneğin psikoterapide: Son yıllarda, çeşitli zihinsel sorunların (kısmi) teşhisi ve tedavisi için çok sayıda araç ortaya çıkmıştır.
Genellikle, etkilenen kişilerle algoritmik temelde bir tür terapinin (çoğunlukla bilişsel davranışçı terapi) uygulandığı, sohbet robotları gibi ekran tabanlı uygulamalar biçiminde çalışırlar. Prensip olarak, belirli tedavi bağlamlarında doktorların yerini tamamen alabilir – düzenleme ihtiyacının ne kadar büyük olduğu ve farklı sorunların ne kadar karmaşık olduğu açıktır.
“Sosyal açıdan da sorular var. Örneğin, bu tür uygulamaların artan kullanımının terapötik personel sayısında daha fazla azalmayı teşvik edip etmediği ve dolayısıyla bakım alanlarındaki azalmayı hızlandırıp hızlandırmadığı tartışmalıdır” diye yazıyor Etik Konseyi.
Düşüncelerinden, yasal gereklilikler olmayan dokuz tavsiye çıkardı. Diğer şeylerin yanı sıra komite, geliştirme, test etme ve belgelendirmede ilgili onay makamları ve tıp dernekleri ile yakın işbirliğini tavsiye eder. Bu sayede ürünlerdeki zayıf noktalar erken tespit edilerek yüksek kalite standartları oluşturulabilir.
AI ürünlerini karar desteği için tasarlarken, sonuçların otomasyon yanlılığı gibi tehlikeleri şeffaf hale getiren bir biçimde sunulması sağlanmalıdır.
Son olarak, profesyonel olarak açıklanan AI programlarını kullananlardan, yani doktorlarla başlamak da gereklidir: Etik Konseyi, “Kanıtlanmış üstün AI uygulamaları için, tıp uzmanlarının klinik eğitimine hızlı entegrasyon olmalıdır” tavsiyesinde bulunur. © lau/Haberler