Paşabahçe Nude
Geçen ay Londra'da düzenlenen bir "Data & Analytics" etkinliğine katıldım. Aşağı yukarı yer aldığım her seansta yapay zekadan bahsedildi. Yapay zekaya dair en çok yönetişim faktörleri hakkında konuşuldu. Hangi kullanım türlerini nasıl devreye almak lazım, yönetim kurullarına bu işleri nasıl sunmak lazım başlıkları da boldu. "Don't boil the ocean" en çok kullanılan deyimdi. "Her şeyi hemen yapmaya kalkma, büyük düşün küçük adımlarla başla" denildi... Diğer bir yapay zeka sloganı ise "trust" idi. Yapay zeka yazılımlarına dair öngörülemezlik bu işin çözülemeyen bir parçası olduğundan, denetleme değil, güvene dayalı ilerleme önerildi. Sektörde pek yerini bulamamış olsa da Chief Data & Analytics Officer (CDAO) rollerinde yer alanlar ne yapmalı, nasıl yapmalı değerlendirmelerine yer verildi. Data, bahsetmesi nispeten kolay ve temel bir kavram olduğundan "AI-ready Data" etiketiyle veriyle yapay zeka ilişkisi modern bir şekilde kuruldu. Fakat, analitik biraz öksüz kaldı. "Traditional AI" filan diyerek analitik işlere yapay zeka denilmeye çalışıldı ama pek tutmadı. Bizde bir laf vardır "eski camlar bardak oldu" denir... Gözlemlediğim kadarıyla eski analitikler de yapay zeka olmuş :) Ama tam da olamamış...
Bu yozlaşmaya birkaç farklı yazımda da değinmiştim. Yapay zeka, analitik, daha öncesinde veri madenciliği, onun da öncesinde iş zekası ve en temelde bilgi teknolojileri konuları hakkında kafalar karışık. Bilgisizlik ve sektörde yer edinme çabasıyla ayağı yere basmayan, ticari modelden yoksun hikayeleştirmeler üzerinden yaygın iletişim yapılıyor. Sıklıkla klasik hesaplama görevlerine yapay zeka denildiğine şahit oluyorum: "Ambara kaç kilo malzeme koyacağımıza yapay zeka ile karar verdik", "Satış hedeflerini yapay zeka ile veriyoruz", "Müşteri segmentlerini yapay zeka ile belirledik" vb. sözler dile getiriliyor.
Ben bir şeyi bilmiyorsam o konuda geçerli olan kaynaklara başvurarak bilgilenmeyi tercih ediyorum. Genelde bu yöntem bende işe yarıyor... Konu yapay zeka ise Russell ve Norvig'in esfsanevi kitabının son sürümüne bir bakmadan ortamlarda boy göstermemek makul bir seçim olabilir. Bu yazıda yapay zeka nedir, akademik taksonomide yeri nerededir, analitikten farkı nedir gibi tanımlamalara girmeyeceğim ama şunu belirtmekte fayda görüyorum: Bugünlerde yapay zeka ile ilgili yaklaşım ve ürün geliştirme faaliyetleri dünyada 4/5 büyük firma tarafından ve akademik disiplinden kopuk, puslu bir şekilde ilerliyor. Bunun farkında olmamız lazım. Bilişim tarihine baktığımızda bu bir ilk. Bu alandaki temel adımlar hep açık, akademik yanı güçlü, erişilebilir ve irdelenebilir bir nitelikteydi. Devlet veya özel sektör girişimleri dahi olsa teknik spesifikasyonlar hep açıktı ve bir standartlaşma mantığı hakimdi. İlk işletim sistemleri, bilgisayar mimarileri, işlemci yapıları, kullanıcı etkileşim modelleri, programlama dillerine bakıldığında bu makul yaklaşımın izi daima sürülebilir. Yapay zeka alanında, tarihte ilk kez en ileri çalışmalar üniversiteler dışında yürütülüyor. Her şey ticari ve politik. Bir yerlerde daima belirsizlik ve kapalı kutular var. Standartlaşma yok. Bununla beraber, her şeyden haberi var gibi davranan büyükçe bir kitle var. Bu tezat ile makul bir istikamete varmak çok zor...
Kendini ispatlamış 3 üretken
yapay zeka vakası biliyorum: (i) müşteri destek hizmetleri (Service
Now), (ii) akıllı doküman uyarlamaları (JP Morgan), (iii) yazılım
geliştirme asistanı (Intuit). Bilgimin kaynağı Evangelos Simoudis.
Somutlaştırmadan, yaklaşımın başarısını ispat etmeden basit analitik ve
iş zekası uygulamaları, bazen de birinci seviyeden mantık yürütme ve
aritmetik ile çözülecek birçok problemi yapay zeka ile çözüyoruz demek
ve yapay zekaya mistik bir anlam yüklemek pek akılcı değil.
Sektör liderlerine tavsiyem, tarihi boyunca kavram ve pdf dosyası üretmiş firmalardan kavram ve pdf almaları, yazılım/donanım üretmiş firmalardan yazılım/donanım almaları ve ticari kar sağlayacak özgün rotaya bağımsızca karar vermeleri. Mevcut durumda pdf ve kavram üretmekte mahir firmalar teknoloji, teknoloji firmaları hukuki yaklaşım, hukuk firmaları da yapay zeka konusunda felsefe üretmeye meyilli. Dedim ya kafalar karışık.
Benim bugün itibarıyla bu konulara dair görüşlerim şu şekilde:- Yapay zeka çok disiplinli bir alandır ama neticede, çalışan hali bir yazılım sistemidir. Yazılım mühendislerinin aktifleşmesi gerek. Çok sessizler. İşlem otonomisi, etkileşim tasarımı, hesaplama teknikleri, bilgi teorisi ve yeni bilgi temsil şekilleri ortaya koyma açılarından yapay zeka alanında bilgisayar mühendislerine çok iş düşüyor.
- Analitik "demokratikleşmiş", iş zekası gibi zaman içinde tabana inmiş bir kavramdır. Her iş kolu bağımsız analitik görev yürütebilmelidir. Bilgi teknolojileri bölümleri bu amaca hizmet edecek kaliteli veri ve kullanması kolay analitik platformları iş kollarına sunabilmelidir. Veriye dayalı her fikir saatler mertebesinde iş kolları tarafından test edilebilmeli, uygunsa devreye alınabilmelidir. Teknolojik altyapı bu çevikliği destekler nitelikte olmalıdır.
- Veri bilimi ekiplerini sektörde yıllardır gözlemliyorum. Başta her yönetici "PhD arakadaşlarla bomba gibi ekip kurduk" diye yola çıktılar. Kimse PhD alanlarını sormadı bu arkadaşların. Ben şunları gördüm: Biyoloji, endüstri mühendisliği, işletme (en çok), finans, ekonomi, ekonometri, bankacılık. Oysa, en çok, bilgisayar mühendisliği, matematik, uygulamalı matematik ve alt dallarına ihtiyaç vardı. Bu arkadaşlar genelde Python programlama dili ile birbirinden kopya kısa kodlar yazıp meşhur birkaç library kullandılar. Yaptıkları hep gradient descent uyarlamaları oldu. Daha net olmak gerekirse, neredeyse hepsi xgboost ve lightgbm ile iş kollarının verdikleri target değişken için en iyi Gini katsayısını yakalamaya çalıştı. "Gini fetişi" diyordu tanıdığım bir CDO bu duruma. Bir bilgi sisteminin temel taşı olan özgün veri yapısı tasarımı hiç hayata alınmadı. Çok kolonlu, "flat", değişken kümeleriyle ilerlendi. Çıktılar konusunda "binning" tarzı veri değerlendirmelerinin ötesine pek geçilemedi. Binning parametreleri de genelde kullanılan analitik platformların default önerileri şeklinde kaldı. Modelleri açıklamak için SHAP uyarlamalarına bel bağlandı. Veri bilimi heyecanıyla kariyere atılmış kişiler zaman içinde kamplaştı, "veri bilimi basit biz veri mühendisi olacağız" diyerek "isyan ettiler"(!) veya "aydınlandılar"(!). Sonra, hangi yazılım ürünü, bulut hizmeti veya veri platformu daha üstün çekişmelerine girdiler. Kimileri hala arkadaşından devraldıkları şablon kodda birkaç değişiklik yapıp 1TB veriyi main memory üzerine almaya uğraşıyor, program çalışmayınca üzülüyor... Kimileri GPU bütçeleri onaylanmadığı için karalar bağlıyor. Uzatmayayım, veri bilimi çabaları mantıksal temellendirme, planlama ve stratejik karar otomasyonları alanlarında hayal edildiği ölçüde başarılı olamadı. Zaten belli bir sınırın geçilemeyeceğine dair teorik çerçeveler hep vardı. Bu ekipler, atomik tahminler, kümelemeler ve solver tarzı yaklaşımlar ile yaşamaya devam etmekte. Günümüzde, ortamda kaliteli veri var ise bu faaliyetler tümüyle otomasyona alınabiliyor. Bu konuda birçok başarılı ticari ürün var.
- "Yazılım zaten makineler tarafından yapılıyor" inancına sahip birçok yeni mezun bilgisayar mühendisine rastlamaya başladım. Kodu yazılım sanıyorlar. Bu noktada öğretim üyelerine büyük iş düşüyor. Yenilikçi bilgi sistemleri üretebilecek kalibrede bir zihin yapısına dönülmesi gerek. Bugünlerde veri, bilgi sistemi, yazılım, yapay zeka vb. birbirinden bağımsız kavramlarmışçasına bir güdülenme var ve bence hatalı. Bilişim tarihini iyi anlatmak ve ilişkileri doğru kurmak bir çıkış yöntemi olabilir.
- Birkaç hafta önce bir paylaşım gördüm: "...firmasında no code developer olarak çalışmaya başladığımı..." diyordu. Bu ay hayata veda eden Bill Atkinson'un 90lı yıllarda geliştirdiği Apple HyperCard, bilgisayar programlamaktan anlamayan kişilere bilgisayar uygulamaları geliştirmelerinde yardımcı olmak için piyasaya sürülmüş çok güzel ve zamanının ötesinde bir üründü. Sonrasında birçok rapid application development ürünü piyasaya çıktı. Bu ürünleri yine genellikle yazılım uzmanları konforlu birer IDE olarak kullandılar... Bilgisayar bilimlerinde belki de en önemli kavram "levels of abstraction" denilen soyutlama mertebeleridir. Her soyutlama seviyesinde bilgi işlem faaliyetleri yürütülebilir ama bir son kullanıcı kendisine sağlanan bazı ürünler ile basit uygulamalar geliştirdiğinde kendine "developer" dememeli bence. Excel ile vba modülleri geliştirmek gibi bir durumdur bu. "No code/low code developer" bana göre "no cut/low cut surgeon" benzeri çarpık bir ibare. RPA ürünleri ile uzun soluklu kurumsal süreç otomasyonları yapılmaması gerektiği gibi, no code platformlar ile de kurumsal kapsayıcılıkta bilgi sistemi otomasyonu yapılmamalı, bu iş BT organizasyonlarına bırakılmalı. BT ekipleri de bu kalıcı ve kapsamlı işleri çabuk yapabilmeli.
- Üretken yapay zeka kullanarak kod üreten ve bu yaklaşımla profesyonel yazılım mühendisliği yapabileceğini sanan, bazı mesleki yeterlilik sınavlarında dahi bu davranışı sergileyen bir kurnaz ama bilgisiz kitle türedi ve artıyor. Yazılım ürünleri üzerinden ticari faaliyet yürüten kurumların bu kitleye karşı dirençli yöntemler geliştirmesi gerek.
Yine hiçbir şeyi beğenmeyip, her şeye bir kulp takmış gibi bir tutum sergiledim ama bunu daha önceki bir yazımda izah etmiştim: Ben ÖYS neslinden bir fen liseliyim. Seçenekler arasından en uygununa razı olmak bize ters. Formül ezberlemek yok. Temeli öğrenip formülleri her seferinde baştan türetebilmek öğretildi bize. Biz önce soruya bakarız enine boyuna, ve gerekirse "bu soru yanlış" deriz. Kalemi atarız, sonuçlarına da katlanırız :)
No comments:
Post a Comment