Yapay Zeka Tarihçe

    Yapay zeka sadece bir teknoloji değil, aynı zamanda bir hayal, bir felsefe ve insanlığın kendi zihnini anlama yolculuğunun bir yansımasıdır. Bugüne gelene kadar nereden başlanıp hangi aşamalardan geçildiğinin bilinmesi, bundan sonrasında bizi bekleyenlere hazırlık yapmak için çok önemlidir.

    Giriş: Taklit Etme Tutkusu ve Sonsuz Arayış

    Yapay zeka çoğumuz için 2022 yılında ChatGPT'nin hizmete açılmasıyla hayatımıza girdi. Oysa yapay zeka dediğimizde, 80 yıldan daha uzun süren bir süreçten bahsediyoruz. Bu süreçte, tarihe ilk kez tanıklık edecekler için oldukça şaşırtıcı olaylar gerçekleşmiştir. Örneğin 1958 yılında tasarlanan ilk yapay sinir ağı modeli olan Perceptron ve 1966 yılında yazılan ve bir psikolog gibi insanlarla sohbet eden ELIZA bu sürecin kadraja giren iki göz kamaştırıcı görüntüsüdür.

    Yapay zeka, 21. yüzyılın en dönüştürücü gücü olarak kapımızı çalarken, bu fikrin kökenlerinin ne kadar eskilere dayandığını unutmak kolaydır. Bu, sadece silikon ve koddan ibaret bir hikaye değil; insanlığın varoluşundan beri en büyük meraklarından birinin, yani kendi bilincini ve zekasını anlama ve kopyalama arzusunun teknolojik bir destanıdır. Bu arayış, antik zanaatkarların atölyelerinden, ortaçağ simyacılarının gizemli formüllerine, aydınlanma çağı filozoflarının mantık makinelerinden, günümüzün küresel veri merkezlerinde uğuldayan devasa sinir ağlarına kadar uzanır.

    Kemerlerimizi bağlayalım, zaman tünelinin derinliklerindeki seyahatimiz başlıyor. Bu makale, o ilk "acaba?" sorusunun peşinden giderek, yapay zekanın doğum sancılarını, coşkulu zaferlerini, sert kışlarını ve görkemli yeniden doğuşlarını, her bir döneme damgasını vuran kilit isimler, devrimsel fikirler ve unutulmaz anlarla birlikte, derinlemesine bir yolculuğa çıkaracak.

    Bölüm 1: Eski Çağlar

    El-Cezeri'nin (1136-1206) Filleri ve Müzisyenleri: 12. yüzyılda Artuklu Sarayı'nda yaşayan büyük İslam alimi El-Cezeri, yazdığı "Kitab-ül Hiyel" adlı eserinde tasarladığı muhteşem otomatlarla sibernetiğin ilk öncüsü sayılır. Onun tasarladığı filli su saati veya bir teknede müzik çalan robot grubu, belirli bir programı (su gücüyle çalışan kam milleri ve mandallar aracılığıyla) takip ederek karmaşık eylemleri gerçekleştiren mekanik harikalardı. Bu, sadece "canlı" bir varlık değil, aynı zamanda programlanabilir ve eğlence amaçlı bir otomat fikrinin de başlangıcıydı.

    Leibniz (1646-1716) isimli Alman dahi, tüm insan bilgisini ifade edebilecek evrensel bir sembolik dil ve bu dildeki anlaşmazlıkları mekanik olarak çözebilecek bir "hesap makinesi" (calculus ratiocinator) hayal etti. Bu, sembolik mantığın ve modern hesaplamanın en büyük vizyonlarından biriydi ve doğrudan doğruya sembolik yapay zekanın felsefi atasıdır. Hobbes'un meşhur sözü de bu dönemin ruhunu yansıtır:

    "
    "Akıl yürütme... toplama ve çıkarmadan başka bir şey değildir."
    Hobbes

    Bölüm 2: Fikrin Makineye Dönüşü ve Doğum (1941–1956)

    İkinci Dünya Savaşı, teoriyi pratiğe döken bir katalizör oldu. Nörobilim, matematik ve mühendislik alanlarındaki gelişmeler, "elektronik bir beyin" inşa etme fikrini bir hayalden, ulaşılabilir bir hedefe dönüştürdü.

    Beynin Elektriksel Modeli: McCulloch-Pitts Nöronu (1943)

    Warren McCulloch (bir nörofizyolog) ve Walter Pitts (bir mantıkçı), beynin nasıl çalıştığına dair devrimsel bir model önerdiler. Bu modele göre:

    1. Bir nöron, basit bir ikili anahtar gibidir: ya "ateşler" (1) ya da "ateşlemez" (0). Arası yoktur.
    2. Bir nöron, ancak kendisine bağlı diğer nöronlardan belirli bir eşiği aşan sayıda sinyal aldığında ateşler.
    3. Bu basit nöronları ağlar halinde birbirine bağlayarak AND, OR, NOT gibi temel mantıksal işlemleri gerçekleştirmek mümkündür.

    Bu, biyolojik bir organ olan beynin, matematiksel mantıkla modellenebileceğini gösteren ilk somut çalışmaydı. Bugünün milyarlarca parametreli derin sinir ağlarının en ilkel atası, işte bu basit ve zarif fikirdi.

    Alan Turing: Büyük Öncü (1912-1954)

    Turing'in katkısı o kadar büyüktür ki, onsuz bir yapay zeka tarihi düşünülemez.

    • Turing Makinesi (1936): Herhangi bir algoritmanın çalışmasını taklit edebilen teorik bir makine. Bu, hesaplanabilirliğin evrensel sınırlarını çizdi.
    • "Hesaplama Makineleri ve Zeka" Makalesi (1950): Bu makale, yapay zeka felsefesinin başlangıç belgesidir. Turing, "Makineler düşünebilir mi?" gibi tanımı zor bir soru yerine, operasyonel bir test önerdi: “Turing Testi”. Testin dehası, zekayı tanımlamaya çalışmak yerine, zeki davranışın “ikna edici bir simülasyonunu” ölçüt olarak almasıydı. Bu, alandaki tartışmaları metafizikten mühendisliğe taşıdı.
    Turing testi, bir makinenin düşünme yeteneğini ve zekasını, bir insanınkinden ayırt edilemez olup olmadığını ölçmek için tasarlanmış bir sorgulama oyunudur. Temelde, bir sorgulayıcının, perdenin arkasındaki biri insan diğeri makine olan iki varlıkla yaptığı yazılı sohbetin sonunda, hangisinin makine olduğunu tutarlı bir şekilde tespit edememesi esasına dayanır.
    Dartmouth Çalıştayı (1956): Bir Devrin Başlangıcı

    Bu, bir grup dâhinin bir araya gelerek bir devrimin başlangıç manifestosunu yazması olarak anılabilir.

    • Organizatörler: John McCarthy, Marvin Minsky, Nathaniel Rochester (IBM) ve Claude Shannon ("Enformasyon Teorisinin Babası").
    • İsim Babası: John McCarthy, alanı sibernetik ve otomat teorisi gibi diğer alanlardan ayırmak için kasıtlı olarak "Yapay Zeka" (Artificial Intelligence) terimini önerdi. Bu, insani zeka seviyesinde hedefleri olan, iddialı ve yeni bir alan yaratma beyanıydı.
    • İlk Büyük Başarı: Çalıştayda, Newell ve Simon, başlattıkları “Logic Theorist” programının bir teoremi nasıl kanıtladığını gösterdiler. Bu, katılımcılar için bir "Eureka!" anıydı. Bir makinenin sadece hesap yapmakla kalmayıp, bir matematikçi gibi “soyut ve sembolik akıl yürütebildiğini” canlı olarak görmüşlerdi. Bu, sembolik yapay zekanın ilk büyük zaferi ve alanın önümüzdeki 20 yıl boyunca izleyeceği rotanın başlangıcıydı.

    Bölüm 3: Altın Çağ ve Sarsıcı Başarılar (1956–1974)

    Dartmouth'un başlattığı coşku, bir dizi şaşırtıcı başarıyla birleşince, yapay zeka tarihinin en iyimser ve en üretken dönemlerinden birini başlattı. Araştırmacılar, insan zekasının sırlarını çözmenin eşiğinde olduklarına inanıyorlardı.

    "
    "On yıl içinde bir dijital bilgisayar dünya satranç şampiyonu olacak."
    Allen Newell ve Herbert A. Simon, 1958
    Sembolik yapay zekanın Zaferleri
    • General Problem Solver (GPS): Newell ve Simon'ın bir sonraki projesi, belirli bir hedefe ulaşmak için adımları planlayan, "amaç-araç analizi" (means-ends analysis) adı verilen bir tekniği kullanan daha genel bir programdı. İnsanların problem çözerken kullandığı düşünce süreçlerini modellemeye çalışması açısından önemliydi.
    • SAINT ve STUDENT: Bu programlar, yapay zekanın sembolik matematik ve doğal dil anlama konularında ne kadar ileri gidebileceğini gösterdi. Özellikle Daniel Bobrow'un STUDENT programı, lise düzeyindeki cebir problemlerini metinden okuyup anlıyor ve çözebiliyordu. Bu, metni matematiksel denklemlere çevirme yeteneğiyle devrimseldi.
    "
    "Makineler, yirmi yıl içinde bir insanın yapabileceği her işi yapabilecek kapasiteye ulaşacak."
    Herbert A. Simon, 1965
    ELIZA (Joseph Weizenbaum, 1966) ve İnsan Faktörü

    ELIZA, teknik olarak basit ama sosyolojik olarak bir bombaydı. Basit bir şablon eşleştirme (pattern matching) tekniği kullanıyordu. Siz "annemden nefret ediyorum" dediğinizde, "anneniz hakkında daha fazla bir şeyler anlatın" gibi önceden programlanmış bir kalıbı tetikliyordu.

    • Weizenbaum'ın Şoku: Programın yaratıcısı Weizenbaum, insanların bu basit programa ne kadar derin anlamlar yüklediğini görünce dehşete düştü. Kendi sekreteri bile onunla özel bir görüşme yapmak için odadan çıkmasını istemişti. Weizenbaum, bu deneyimden sonra yapay zekanın etik sınırları ve insan yaşamını değersizleştirme potansiyeli üzerine en sert eleştirmenlerden biri oldu.
    • ELIZA Etkisi: Bu, insanların bilgisayar davranışlarına bilinçsizce insani niyetler ve duygular atfetme eğilimini tanımlayan psikolojik bir terim haline geldi. Bu etki, günümüzdeki sohbet robotlarıyla olan etkileşimlerimizin temelinde yatmaya devam ediyor.
    "
    "Nispeten basit bir bilgisayar programına maruz kalmanın, oldukça normal insanlarda bile güçlü sanrısal düşünceleri tetikleyebileceğini fark etmemiştim."
    Joseph Weizenbaum, 1966
    Yapay Sinir Ağlarının İlk Adımları ve Ani Duruş

    Sembolik yapay zeka parıldarken, arka planda farklı bir yaklaşım daha vardı:

    • Perceptron (Frank Rosenblatt, 1958): Öğrenebilen ilk pratik sinir ağı modeliydi. Basit desenleri (örneğin harfleri) tanımayı öğrenebiliyordu. Rosenblatt, Perceptron'un nihayetinde bilinç kazanacağını öngören coşkulu bir iyimsere sahipti.
    • Perceptrons Kitabı (Minsky & Papert, 1969): Ancak, yapay zekanın iki devi Marvin Minsky ve Seymour Papert, yazdıkları bu kitapla Perceptron'ların temel bir matematiksel sınırlılığı olduğunu kanıtladılar: XOR (dışlayıcı veya) gibi doğrusal olarak ayrılamayan problemleri çözemiyorlardı. Bu eleştiri o kadar etkili oldu ki, sinir ağı araştırmalarına yönelik fonlar neredeyse tamamen kesildi ve bu alan on yıldan fazla sürecek bir kış uykusuna yattı. Bu, yapay zeka tarihinde bir paradigmanın diğerini nasıl (geçici olarak) yok ettiğinin en acımasız örneğidir. Bugün kullandığımız modern yapay zeka modellerinin temelinde yapay sinir ağlarının olduğunu düşününce, üzülmemek elde değil.
    "
    "Üç ila sekiz yıl içinde, ortalama bir insanın genel zekasına sahip bir makinemiz olacak."
    Marvin Minsky, 1970
    SHRDLU (Terry Winograd, 1972)

    Belki de bu dönemin en etkileyici başarısıydı. SHRDLU, sadece komutları anlamakla kalmıyor, aynı zamanda belirsizlikleri de çözebiliyordu. Örneğin, "Yeşil küpün üzerindeki piramidi kaldır" dendiğinde, eğer yeşil küpün üzerinde birden fazla piramit varsa, "Hangi piramidi kastediyorsun?" diye sorabiliyordu. Bu, dil, algı ve eylemin entegre olduğu “mikro-dünya” yaklaşımının zirvesiydi.

    Bölüm 4: İlk Kışın Soğuk Rüzgarları (1974–1980)

    Altın Çağ'ın aşırı iyimserliği, zorlu gerçekliğin duvarına çarptı. Vaatler büyüktü, ancak karşılaşılan engeller daha da büyüktü. Bu dönem, yapay zekanın sınırlarını ve zorluklarını öğrendiği acı bir olgunlaşma süreciydi.

    Aşılamayan Dört Büyük Duvar
    1. Hesaplama Sınırları: Yapay zeka programları, "oyuncak" problemlerden gerçek dünya problemlerine ölçeklenmeye çalıştığında, olasılıkların sayısı katlanarak artıyordu. Bir satranç oyunundaki olası hamle sayısı, evrendeki atomların sayısından fazladır. O dönemin donanımları bu patlamayla başa çıkamazdı. Bu, pratikte bir "hesaplama duvarı" anlamına geliyordu.
    2. Sağduyu Bilgisi Engeli: SHRDLU'nun başarısı, onun her şeyi bildiği bir "mikro-dünyada" yaşamasından kaynaklanıyordu. Gerçek dünyada bir sohbeti anlamak için, "insanlar ıslanmaktan hoşlanmaz" ve "bir araba bir insandan büyüktür" gibi milyonlarca örtük bilgiye ihtiyaç vardır. Bu devasa ve organize edilmemiş bilgi yığınını bir makineye nasıl kodlayacakları konusunda kimsenin bir fikri yoktu. Bu sorun, bugün bile yapay zekanın en büyük zorluklarından biridir.
    3. Moravec Paradoksu ve Bedenin Önemi: Hans Moravec'in gözlemi, yapay zekanın temel varsayımlarını sarstı. Yüksek seviyeli mantıksal düşüncenin (satranç, matematik) zekanın zirvesi olduğu düşünülüyordu. Oysa bir bebeğin bile kolayca yapabildiği algısal ve motor beceriler (bir topu yakalamak, yüzleri tanımak) inanılmaz derecede karmaşık bir hesaplama gerektiriyordu. Yapay zeka, zekanın en zor kısmının aslında en "basit" görünen şeyler olduğunu acı bir şekilde öğrendi.
    4. Felsefi Eleştiriler:
      • Hubert Dreyfus: Bir filozof olarak Dreyfus, yapay zekanın temel felsefesine saldırdı. İnsan zekasının sembolik bilgi işlemeye değil, bedensel, sezgisel ve bilinçdışı bir "know-how"a dayandığını savundu. Yapay zeka araştırmacıları tarafından dışlansa da, eleştirileri Moravec Paradoksu ile örtüşüyordu.
      • Çin Odası Argümanı (John Searle, 1980): Searle, sembolleri manipüle etmenin, onları "anlamak" ile aynı şey olmadığını göstermek için bu ünlü düşünce deneyini tasarladı. Bir odada, sadece kuralları takip ederek Çince karakterleri işleyen bir kişinin Çince bildiği söylenemezdi. Bu, sembolik yapay zekanın "anlam" (semantics) değil, sadece "sözdizimi" (syntax) ile ilgilendiği yönündeki güçlü bir eleştiriydi.
    Finansal Çöküş

    Bu teorik ve pratik engeller, fon sağlayıcıların sabrını taşırdı.

    • Lighthill Raporu (İngiltere): James Lighthill'in raporu, yapay zekayı "büyük hedeflere ulaşmadaki başarısızlığı" ve "kombinatoryal patlama" sorunu nedeniyle sert bir şekilde eleştirdi. Sonuç olarak, İngiltere'deki genel yapay zeka araştırmaları büyük ölçüde durduruldu.
    • Mansfield Değişikliği ve DARPA (ABD): ABD'de, Vietnam Savaşı'nın etkisiyle, savunma harcamalarının daha "görev odaklı" ve doğrudan askeri uygulamalara yönelik olması yönünde bir baskı oluştu. Bu, DARPA'nın temel, keşif amaçlı yapay zeka araştırmalarına verdiği desteği kesmesine ve fonları otonom tanklar gibi daha somut projelere yönlendirmesine neden oldu.

    Bu dönem, yapay zeka topluluğuna acı bir ders verdi: Büyük vaatler, büyük hayal kırıklıkları getirir (Geçmişten ne kadar az ders çıkarıyoruz, değil mi?).

    Bölüm 5: Uzman Sistemler ve Yeni Bir Bahar (1980–1987)

    İlk kışın yarattığı hayal kırıklığı ve fon kesintileri, yapay zeka topluluğunu daha pragmatik olmaya zorladı. "Her şeyi bilen bir makine" gibi ulaşılması zor hayaller, yerini daha mütevazı ama bir o kadar da değerli bir hedefe bıraktı: Belirli bir alanda, bir uzman insan kadar bilgili ve yetkin bir sistem ortaya çıkarmak. Bu, yapay zekanın laboratuvardan çıkıp endüstriye adım attığı, yeniden saygınlık ve yatırım kazandığı bir "bahar" dönemiydi.

    Uzman Sistem Mimarisi: Bilgi ve Çıkarım

    Bu sistemlerin dehası, "sağduyu bilgisi" gibi devasa bir okyanusu aşmaya çalışmak yerine, kendilerine ait küçük ve iyi tanımlanmış bir gölde yüzmeyi tercih etmelerindeydi. Temel olarak iki ana bileşenden oluşuyorlardı:

    1. Bilgi Tabanı (Knowledge Base): Bu, sistemin "beyniydi". Alanında uzman insanların (doktorlar, kimyagerler, mühendisler) bilgisi, "bilgi mühendisliği" adı verilen zahmetli bir süreçle IF-THEN kurallarına dönüştürülürdü. Örneğin, MYCIN için bu kurallar, "EĞER hastanın ateşi yüksek VE kan kültürü gram-pozitif koklar gösteriyorsa, O HALDE stafilokok enfeksiyonu olasılığı %70'tir" gibi ifadeler içeriyordu.
    2. Çıkarım Motoru (Inference Engine): Bu ise sistemin "akıl yürüten" kısmıydı. Kullanıcıdan gelen verilere (hastanın semptomları gibi) dayanarak, bilgi tabanındaki kuralları sistematik bir şekilde uygulayarak bir sonuca veya tavsiyeye ulaşırdı.
    Ticari Başarının Bayrak Taşıyanları

    MYCIN: Stanford Üniversitesi'nde geliştirilen bu sistem, kan enfeksiyonları ve menenjit teşhisi koyabiliyordu. Yaklaşık 600 kural içeren bilgi tabanı sayesinde, yapılan testlerde alanındaki insan uzmanlardan daha yüksek teşhis isabet oranı yakaladı. Hiçbir zaman pratik olarak (etik ve yasal sorumluluk sorunları nedeniyle) hastanelerde kullanılmasa da, bir makinenin tıp gibi karmaşık bir alanda uzman düzeyinde performans sergileyebileceğini kanıtlayan bir "konsept kanıtı" (proof of concept) oldu.

    R1 (XCON): Bu uygulama, yapay zekanın ilk "killer app"i, yani piyasayı değiştiren uygulamasıydı. Digital Equipment Corporation (DEC) için geliştirilen R1, müşterilerin karmaşık VAX bilgisayar siparişlerini doğru şekilde yapılandırmakla görevliydi. Siparişlerdeki yüzlerce parça ve kablonun uyumluluğunu kontrol ederek insan kaynaklı hataları ortadan kaldırdı. Sonuç mu? DEC için “yılda 40 milyon dolarlık” bir tasarruf. Bu somut finansal başarı, iş dünyasının yapay zekaya bakışını kökten değiştirdi.

    Endüstriyel Patlama ve Lisp Makineleri

    R1'in başarısı bir domino etkisi yarattı. DuPont, General Motors, Boeing gibi dev şirketler kendi uzman sistem departmanlarını kurmaya başladılar. Bu, yapay zekaya adanmış yepyeni bir endüstri doğurdu:

    1. Donanım: Yapay zeka araştırmalarının ana dili olan LISP programlama dilini çalıştırmak için optimize edilmiş özel bilgisayarlar üreten Symbolics ve *Lisp Machines Inc. gibi şirketler kuruldu. Bu makineler, o dönemin standart bilgisayarlarına göre çok daha pahalı ve güçlüydü.
    2. Yazılım: Uzman sistemler geliştirmeyi kolaylaştıran "kabuklar" (shells) sunan IntelliCorp ve Aion gibi yazılım firmaları ortaya çıktı.
    Uluslararası Rekabet: Beşinci Nesil Bilgisayar Projesi

    Bu bahar havası sadece ABD ile sınırlı değildi. 1981'de Japonya, tüm dünyayı şoke eden bir hamle yaptı. “Beşinci Nesil Bilgisayar Projesi” ile hedefleri, mevcut bilgisayar mimarilerini tamamen aşarak, mantık programlama dili “Prolog” üzerine kurulu, devasa paralel işlem gücüne sahip makineler ortaya çıkarmaktı. Amaçları, insanlarla doğal dilde sohbet edebilen, karmaşık çıkarımlar yapabilen "düşünen makinelerdi". Bu proje, ABD ve Avrupa'da bir "teknoloji gerisinde kalma" korkusu yaratarak, “Stratejik Hesaplama Girişimi (SCI)” gibi devasa fonlama programlarının önünü açtı ve yapay zekaya olan yatırımı küresel bir yarışa dönüştürdü.

    Bölüm 6: Sembollerin Sınırları ve İkinci Kış (1987–1993)

    Her ekonomik balon gibi, uzman sistemler etrafında oluşan heyecan balonu da eninde sonunda patladı. Teknolojinin vaatleri, pratik uygulamanın sert gerçekleriyle bir kez daha yüzleşti ve yapay zeka, tarihinin ikinci büyük kışına girdi.

    Uzman Sistemlerin Kırılgan Doğası

    Uzman sistemlerin gücü, aynı zamanda en büyük zayıflığıydı: dar bir alana hapsolmuş olmaları. Bu sistemler "kırılgan" (brittle) olarak tanımlanıyordu, çünkü:

    • Öğrenemiyorlardı: Bilgi tabanları elle kodlanıyordu. Yeni bir bilgi veya kural eklemek, pahalı ve zaman alıcı bir "bilgi mühendisliği" süreci gerektiriyordu. Kendi kendilerine tecrübe kazanamıyorlardı.
    • Esnek Değillerdi: Kurallarının tanımlamadığı en ufak bir istisnai durumla karşılaştıklarında, mantıklı bir tahmin yapmak yerine, anlamsız hatalar veriyorlardı. Sağduyudan tamamen yoksundular.
    • Bilgi Edinme Darboğazı (Knowledge Acquisition Bottleneck): Bir uzmanın zihnindeki örtük, sezgisel bilgiyi somut “IF-ELSE” kurallarına dökmenin ne kadar zor olduğu anlaşıldı. Bu, sistemlerin ölçeklenmesinin önündeki en büyük engeldi.
    Pazarın Çöküşü: Lisp Makinelerinin Sonu (1987)

    Bu, ikinci kışın başlangıcını simgeleyen somut ve dramatik bir olaydı. 1980'lerin ortalarında Sun Microsystems, Apple ve IBM gibi şirketlerin ürettiği genel amaçlı iş istasyonları ve kişisel bilgisayarlar, Moore Yasası'nın da itici gücüyle hızla güçlendi ve ucuzladı. Çok geçmeden bu standart makineler, yapay zeka için tasarlanmış pahalı ve özel Lisp makinelerinden daha güçlü hale geldi. Artık yarım milyon dolarlık Lisp makinelerini almanın hiçbir mantığı kalmamıştı. Yarım milyar dolarlık bir endüstri, kelimenin tam anlamıyla buharlaştı.

    Sembolik Yaklaşıma Karşı İsyan: Yeni Paradigmaların Yükselişi

    Sembolik yapay zekanın bu başarısızlığı, alandaki diğer alternatif yaklaşımlar için bir fırsat penceresi açtı. İki ana akım, bu dönemde kök salıp güçlenmeye başladı:

    1. Sinir Ağlarının Yeniden Doğuşu: 1969'da Perceptrons kitabıyla gömülen sinir ağları, küllerinden doğuyordu. Bu yeniden doğuşun arkasında iki büyük gelişme vardı:
      • Parallel Distributed Processing (1986): Rumelhart ve McClelland'ın editörlüğünü yaptığı bu iki ciltlik kitap, yeni nesil araştırmacılar için bir "manifesto" oldu ve sinir ağlarının teorik temellerini yeniden inşa etti.
      • Geri Yayılım (Backpropagation) Algoritmasının Popülerleşmesi: Aslında daha önceden var olan ancak yapay zeka topluluğunda pek bilinmeyen bu algoritma, *çok katmanlı* sinir ağlarını eğitmenin etkili bir yolunu sunuyordu. Bu, Minsky ve Papert'in eleştirdiği tek katmanlı Perceptron'ların temel sınırlılığını aşıyordu. Sinir ağları artık XOR gibi karmaşık problemleri de öğrenebiliyordu. Kış sona ermişti.
    2. Nouvelle AI ve Bedenlenmiş Zeka (Embodied Intelligence): MIT'de Rodney Brooks, sembolik yapay zekanın temel varsayımına doğrudan saldıran radikal bir figürdü. "Akıl yürütme, zekanın en zor kısmı değildir; algı ve motor kontrolüdür" diyordu.
      • "Filler Satranç Oynamaz": Bu başlıklı ünlü makalesinde, yapay zekanın soyut sembol manipülasyonuyla dolu steril dünyasından çıkıp, gerçek dünyanın karmaşasıyla başa çıkması gerektiğini savundu.
      • Kapsama Mimarisi (Subsumption Architecture): Brooks, merkezi bir "beyin" veya dünya modeli olmadan çalışan robotlar inşa etti. Bu robotlar, "engellerden kaçın", "ileri git", "etrafı keşfet" gibi basit davranış katmanlarından oluşuyordu. Daha karmaşık davranışlar, bu basit katmanların etkileşiminden "doğuyordu" (emergent behavior). Onun böcek benzeri robotları, "zeka" için karmaşık bir iç temsile gerek olmayabileceğinin canlı kanıtlarıydı.
    "
    "Dünya, kendi en iyi modelidir. Her zaman günceldir. Bilinmesi gereken her detaya sahiptir. Marifet, onu uygun şekilde ve yeterince sık algılamaktır."
    Rodney Brooks, 1990

    Bu dönem, yapay zekanın tek bir doğru yolu olmadığını, zekanın farklı yaklaşımlarla modellenebileceğini gösteren, alanın entelektüel olarak çoğullaştığı kritik bir kavşaktı.

    Bölüm 7: Sessiz Devrim ve "Büyük Veri"nin Yükselişi (1990'lar - 2010'lar)

    İkinci kışın ardından "Yapay Zeka" terimi bir kez daha gözden düşmüştü. Ancak bu, alanın yok olduğu anlamına gelmiyordu. Aksine, yapay zeka manşetlerden çekilerek, teknolojinin altyapısına sessizce ve derinden entegre olmaya başladı. Bu, gelecekteki rönesansı hazırlayan bir birikim ve olgunlaşma dönemiydi.

    Sahne Arkasındaki Yapay Zeka: Görünmez Altyapı

    Yapay zekanın en büyük başarılarından bir çoğu, artık "Yapay Zeka" olarak etiketlenmiyordu. Sadece "akıllı bir yazılım özelliği" haline gelmişlerdi.

    • Lojistik ve Tedarik Zinciri: FedEx ve UPS gibi devler, paketlerin en verimli rotalarını planlamak için yapay zeka tabanlı optimizasyon algoritmaları kullanmaya başladı.
    • Finans: Kredi kartı şirketleri, harcama alışkanlıklarındaki anormal desenleri tespit ederek sahtekarlığı önleyen sinir ağı tabanlı sistemleri devreye soktu.
    • Veri Madenciliği: Süpermarketler, hangi ürünlerin birlikte satın alındığını (meşhur "bira ve bebek bezi" efsanesi) keşfetmek için büyük veri setlerinde örüntü arayan algoritmalar kullandılar.
    • Doğal Dil İşleme (NLP): Otomatik çağrı merkezleri, "fatura bilgisi" veya "teknik destek" gibi anahtar kelimeleri tanıyan basit ses tanıma sistemleri kullanmaya başladı.
    • Google'ın Kalbi: Google'ın "Page Rank" algoritmasının ilk versiyonları, web sayfalarının önemini ve alaka düzeyini belirlemek için yapay zekadan ilham alan istatistiksel teknikler kullanıyordu.
    Daha Titiz, Daha Matematiksel Bir Alan

    Bu dönemde yapay zeka, felsefi spekülasyonlardan uzaklaşıp daha bilimsel ve titiz bir disipline dönüştü. Olasılık teorisi, istatistik ve optimizasyon gibi alanlarla evlilik yaptı. Judea Pearl'ün “Bayes Ağları” üzerine yaptığı çalışmalar, belirsizlik altında akıl yürütme konusunda bir devrim yarattı ve alana sağlam bir matematiksel temel kazandırdı. Artık bir sistemin başarısı, "zeki görünüp görünmediği" ile değil, ölçülebilir metriklerle (isabet oranı, hata payı vb.) değerlendiriliyordu.

    Kaba Kuvvetin Zaferleri: Moore Yasası İş Başında

    Bu dönemin en ünlü başarıları, devrimsel yeni bir zeka anlayışından değil, Moore Yasası sayesinde katlanarak artan ham hesaplama gücünden kaynaklanıyordu.

    • Deep Blue vs. Kasparov (1997): IBM'in Deep Blue'su, dünya satranç şampiyonu Garry Kasparov'u yendiğinde, bu bir "düşünme" zaferi değildi. Bu, **saniyede 200 milyon satranç pozisyonunu** değerlendirebilen, özel olarak tasarlanmış donanımın ve kaba kuvvet arama algoritmalarının zaferiydi. Yine de bu, bir makinenin daha önce sadece insan dehasına ait olduğu düşünülen bir alanda en tepeye çıkabileceğinin simgesel bir kanıtıydı.
    • DARPA Grand Challenge (2005): Bu yarışmada, sürücüsüz araçların Mojave Çölü'nde 212 km'lik bir parkuru tamamlaması gerekiyordu. Stanford Üniversitesi'nin "Stanley" adlı aracı yarışı kazandığında, bunu soyut mantıksal planlama ile değil, lazer sensörlerinden, radarlardan ve kameralardan gelen devasa miktarda veriyi sürekli olarak işleyen, olasılıksal haritalama ve makine öğrenimi algoritmalarıyla başardı. Bu, Rodney Brooks'un "gerçek dünya ile başa çıkma" felsefesinin bir zaferiydi.

    Bu sessiz devrim, modern yapay zeka patlamasını mümkün kılacak üç temel bileşeni bir araya getiriyordu: “Hızlı Donanım”, “Devasa Veri Kümeleri” ve “Sağlam Algoritmalar”. Sahne bir sonraki perde için hazırdı.

    Ve şimdi, her şeyin değiştiği, günümüzü şekillendiren o büyük rönesansa geçiyoruz

    Bölüm 8: Derin Öğrenme ve Modern Yapay Zeka Rönesansı (2012–Günümüz)

    2010'lu yılların başında, teknoloji dünyasının altında sessiz bir tektonik hareketlilik vardı. Üç devasa plaka “Büyük Veri”, “Paralel Hesaplama Gücü” ve “Gelişmiş Algoritmalar” yavaş yavaş birbirine yaklaşıyordu. 2012'de bu plakalar çarpıştığında, ortaya çıkan enerji "Derin Öğrenme" devrimini tetikledi ve yapay zeka tarihini sonsuza dek değiştirecek bir rönesans başlattı.

    Rönesans Öncesi Popüler Kültürdeki Kilometre Taşları

    2012'deki büyük derin öğrenme patlamasından hemen önce, yapay zekanın gücü popüler kültürde ses getiren birkaç önemli başarıyla kendini göstermeye başlamıştı. Bunlar, büyük veri ve akıllı algoritmaların neler yapabileceğine dair heyecan verici ipuçları sunuyordu:

    • IBM Watson (2011): Deep Blue'nun satranç zaferinden 14 yıl sonra, IBM'in Watson sistemi, ABD'nin en ünlü bilgi yarışması Jeopardy’'de iki efsane şampiyonu yenerek manşetlere çıktı. Watson'ın zaferi, sadece bilgi depolamaktan ibaret değildi. Yarışmanın karmaşık, esprili ve dolaylı dilini anlama, devasa bir veri kümesinden (Wikipedia'nın tamamı dahil) saniyeler içinde doğru cevabı bulma ve olasılık hesaplayarak ne zaman cevap vereceğine karar verme yeteneğine dayanıyordu. Bu, doğal dil anlamada o güne kadarki en büyük halka açık başarıydı.
    • Siri (2011) ve Alexa (2014): Apple'ın Siri'si ve Amazon'un Alexa'sı, yapay zekayı milyonlarca insanın cebine ve evine soktu. İlk başlarda yetenekleri sınırlı olsa da, bu sesli asistanlar, insan-bilgisayar etkileşiminde bir devrimdi. Kullanıcıların doğal bir dille komut vererek hava durumunu öğrenmesi, alarm kurması veya internette arama yapması, yapay zekanın laboratuvardan çıkıp günlük bir yardımcıya dönüştüğünün en somut kanıtıydı.
    Devrimin Üç Sacayağı: Mükemmel Fırtına

    Yaşanan büyük patlama tesadüf değildi. Yıllardır biriken üç temel gücün bir araya gelmesinin sonucuydu:

    1. Büyük Veri (Big Data): İnternet, insanlık tarihinin en büyük bilgi deposunu yaratmıştı. Özellikle Fei-Fei Li'nin öncülüğünü yaptığı “ImageNet” projesi bir dönüm noktasıydı. Milyonlarca özenle etiketlenmiş ("bu bir kedi", "bu bir araba") fotoğraftan oluşan bu devasa veri seti, aç bir sinir ağı için mükemmel bir "ders kitabı" ve aynı zamanda farklı modellerin karşılaştırılabileceği bir "olimpiyat sahası" sağladı. Veri olmadan, en zeki algoritma bile bir çocuk kadar cahildi.
    2. Paralel Hesaplama Gücü (GPU'lar): Bu, beklenmedik bir nimetti. Video oyun endüstrisi için geliştirilen “Grafik İşlem Üniteleri (GPU'lar)”, binlerce basit hesaplamayı aynı anda yapmak üzere tasarlanmıştı. Sinir ağlarının temelini oluşturan matris çarpımı işlemleri de tam olarak bu tür bir paralel hesaplama gerektiriyordu. NVIDIA gibi şirketlerin geliştirdiği GPU'lar, yapay zeka araştırmacılarına daha önce sadece süper bilgisayarlarda hayal edebilecekleri bir hesaplama gücünü masaüstlerinde sundu. Oyun için üretilen bu güç, yapay zekanın motoru haline geldi.
    3. Algoritmik İyileştirmeler: Geri yayılım (backpropagation) on yıllardır biliniyordu, ancak çok katmanlı, yani "derin" ağları eğitmek hala zordu. “ReLU (Rectified Linear Unit)” gibi daha verimli aktivasyon fonksiyonları ve “Dropout” gibi aşırı öğrenmeyi (overfitting) engelleyen zekice teknikler, araştırmacıların çok daha derin ve dolayısıyla daha yetenekli ağları başarıyla eğitmelerini sağladı.
    Her Şeyi Değiştiren An: AlexNet'in Zaferi (2012)

    Bu üç gücün birleştiği o tarihi an, ImageNet yarışmasında yaşandı. Geoffrey Hinton ve öğrencilerinin geliştirdiği “AlexNet” adlı derin evrişimli sinir ağı (deep convolutional neural network), yarışmaya katıldı ve sonuçlar oldukça dikkat çekiciydi. AlexNet, nesne tanıma görevinde ikinci olan ve geleneksel bilgisayarlı görü tekniklerini kullanan rakibinden çok daha iyi bir hata oranı elde etti. O an, bilgisayarlı görü alanındaki neredeyse tüm araştırmacılar, izledikleri yolun sonuna geldiğini ve geleceğin derin öğrenmede olduğunu anladı. Bu, yapay zekada bir paradigma kaymasının başlangıç düdüğüydü.

    Derin Öğrenmenin Farklı Yüzleri: Görüntü, Dizi ve Strateji

    AlexNet'in zaferi, derin öğrenmenin potansiyelini kanıtladıktan sonra, araştırmacılar farklı problemler için özelleşmiş sinir ağı mimarileri geliştirmeye odaklandılar:

    CNN (Evrişimli Sinir Ağları - Convolutional Neural Networks): AlexNet'in de temelini oluşturan bu mimari, insan görsel korteksinden ilham aldı. Görüntüleri küçük parçalara ayırarak ve bu parçalar üzerinde "evrişim filtreleri" gezdirerek kenarlar, dokular ve şekiller gibi özellikleri katman katman öğrenmesini sağladı. Kısa sürede görüntü ve video analizi, nesne tespiti ve yüz tanıma gibi alanların standart teknolojisi haline geldi.

    RNN ve LSTM (Tekrarlayan ve Uzun Kısa Süreli Bellek Ağları - Recurrent & Long Short-Term Memory Networks): Görüntülerin aksine, dil veya zaman serisi gibi sıralı veriler için tasarlanmışlardı. RNN'ler, dizideki her bir elemanı işlerken bir önceki adımdan gelen bilgiyi "hatırlayan" bir döngüye sahipti. Ancak bu bellek kısa süreliydi. LSTM'ler ise, "unutma kapısı" gibi özel mekanizmalarla bu sorunu aşarak çok daha uzun dizilerdeki bağlamı koruyabilen gelişmiş bir RNN türü olarak ortaya çıktı. Transformer mimarisi çıkana kadar makine çevirisi ve metin üretimi gibi görevlerde en son teknoloji olarak kabul ediliyorlardı.

    AlphaGo'nun Zaferi (2016): Belki de derin öğrenmenin en sembolik zaferi, DeepMind tarafından geliştirilen AlphaGo'nun, dünyanın en iyi Go oyuncusu Lee Sedol'u yenmesiydi. Go, astronomik sayıda olası hamle içerdiği için satrançtan çok daha karmaşık kabul edilir ve "sezgi" gerektirdiği düşünülürdü. AlphaGo'nun dehası, iki derin öğrenme ağını birleştirmesiydi: Biri, tahtadaki pozisyonun ne kadar iyi olduğunu değerlendiren bir "politika ağı", diğeri ise olası hamleleri öngören bir "değer ağı". Bu ağları “Takviyeli Öğrenme (Reinforcement Learning)” ile kendi kendine karşı milyonlarca oyun oynayarak eğitti. AlphaGo'nun zaferi, yapay zekanın sadece kaba kuvvetle değil, aynı zamanda insan benzeri sezgisel stratejiler de geliştirebileceğini kanıtladı.

    Derin Öğrenmeyi Kolaylaştıran Araçlar: TensorFlow ve PyTorch

    Bu devrimin bir diğer kritik bileşeni de, derin öğrenme modelleri geliştirmeyi kolaylaştıran açık kaynaklı yazılım kütüphaneleriydi. Bu framework'ler, araştırmacıların ve geliştiricilerin karmaşık sinir ağlarını sıfırdan kodlamak yerine, yüksek seviyeli ve optimize edilmiş yapı taşlarıyla inşa etmelerine olanak sağladı:

    • TensorFlow (Kasım 2015): Google Brain ekibi tarafından geliştirilip açık kaynaklı hale getirilen TensorFlow, kısa sürede endüstri standardı haline geldi. Ölçeklenebilirliği, farklı platformlarda çalışabilmesi ve üretime (deployment) yönelik güçlü araçları (TensorFlow Serving gibi) sayesinde büyük şirketlerin ve ciddi projelerin ilk tercihi oldu.
    • PyTorch (Eylül 2016): Facebook'un (Meta) AI Araştırma laboratuvarı (FAIR) tarafından geliştirilen PyTorch ise, özellikle akademik ve araştırma çevrelerinde hızla popülerlik kazandı. Python programlama diline çok daha sezgisel bir şekilde entegre olması ve "dinamik hesaplama grafiği" sayesinde model oluşturma ve hata ayıklama süreçlerini basitleştirmesi, onu esneklik ve hızlı deney yapma konusunda bir yıldıza dönüştürdü.

    Bu iki dev framework arasındaki tatlı rekabet, tüm yapay zeka ekosisteminin hızla gelişmesini sağlayan bir motor görevi gördü.

    Dilin Kilidinin Açılması: Transformer Mimarisi (2017)

    Derin öğrenme, algı (görü, ses) alanında devrim yaratmıştı, ancak dilin karmaşık yapısı hala büyük bir sorundu. Önceki modeller (RNN'ler, LSTM'ler) metni kelime kelime, sıralı bir şekilde işliyordu. Bu, uzun bir cümlede en baştaki bir kelimenin en sondaki bir kelimeyle olan ilişkisini yakalamayı zorlaştırıyordu. Sonra Google'dan bir grup araştırmacı, her şeyi değiştiren o efsanevi makaleyi yayınladı: "Attention Is All You Need"

    Bu makalede tanıtılan “Transformer Mimarisi”, sıralı işlemeyi terk ediyordu. Onun yerine "Öz-dikkat mekanizması" (self-attention mechanism) sayesinde, model bir cümlenin tüm kelimelerine aynı anda bakabiliyor ve her bir kelimenin anlamını çözmek için cümlenin diğer hangi kelimelerinin ne kadar "önemli" olduğuna dinamik olarak karar verebiliyordu. Bu, dilin uzun menzilli bağlamını ve nüanslarını anlamada büyük bir sıçramaydı.

    Büyük Dil Modelleri, OpenAI'ın Kurulması ve ChatGPT

    OpenAI'ın Kuruluşu (2015): Transformer mimarisi, devasa ölçekte modellere giden yolu açtı. OpenAI, 2015 yılında Sam Altman, Elon Musk, Greg Brockman, Ilya Sutskever gibi isimler tarafından kâr amacı gütmeyen (non-profit) bir araştırma laboratuvarı olarak kuruldu. Temel misyonu, o dönemde yapay zeka alanında büyük bir güç haline gelen Google'a (ve DeepMind'a) karşı bir denge unsuru oluşturmaktı. Kurucular, AGI'nin tek bir şirketin kontrolüne girmesinin tehlikeli olabileceğine inanıyor ve bu teknolojinin tüm insanlığın faydasına, şeffaf bir şekilde geliştirilmesini savunuyorlardı.

    GPT-1 (2018): Serinin atası olan Generative Pre-trained Transformer 1, bugünün standartlarına göre mütevazı (117 milyon parametre) kalsa da, çığır açan bir konsepti kanıtladı: Üretken Ön-Eğitim (Generative Pre-training). Fikir şuydu: Modeli önce internetten toplanan devasa bir metin veri kümesiyle (BookCorpus gibi) denetimsiz bir şekilde eğiterek dilin genel yapısını, gramerini ve anlamsal ilişkilerini öğrenmesini sağlamak. Ardından bu "ön-eğitilmiş" dev modeli alıp, çok daha küçük ve özel veri setleriyle belirli görevler (metin sınıflandırma, duygu analizi vb.) için ince ayardan (fine-tuning) geçirmek. Bu "önce genel öğren, sonra özelleş" yaklaşımı, yapay alanında model geliştirme paradigmasını değiştirdi ve GPT serisinin gelecekteki baş döndürücü ölçeklenmesinin temelini attı.

    BERT (2018): GPT modelleri metni tek yönde (genellikle soldan sağa) okuyarak bir sonraki kelimeyi tahmin etmeye odaklanırken, Google'ın BERT (Bidirectional Encoder Representations from Transformers) modeli devrimsel bir yaklaşımla ortaya çıktı. BERT, bir kelimenin anlamını kavramak için cümlenin hem sağındaki hem de solundaki bağlamı aynı anda analiz ediyordu. Bu çift yönlü yapı, onu özellikle metin anlama, arama sorgularını yorumlama ve duygu analizi gibi görevlerde inanılmaz derecede güçlü kıldı. Bir süre için, "üretken" yapay zekada GPT ne ise, "anlayan" yapay zekada da BERT oldu.

    GPT-2 (2019): OpenAI'ın bu modeli, tutarlı ve şaşırtıcı derecede akıcı metin paragrafları üretebildiğinde büyük bir heyecan yarattı.

    OpenAI için Pragmatik Dönüşüm: OpenaI kısa sürede acı bir gerçekle yüzleşti: GPT gibi devasa modelleri eğitmek, akıl almaz derecede pahalı bir işti. Hem en iyi yetenekleri işe almak hem de gereken on binlerce GPU'luk işlem gücünü finanse etmek, kâr amacı gütmeyen bir bağış modeliyle sürdürülebilir değildi. Rekabette geri kalmamak için radikal bir karar alındı. OpenAI, yapısını değiştirerek "kârı sınırlandırılmış" (capped-profit) bir yapı olan OpenAI LP'yi kurduğunu duyurdu. Bu yeni yapı, şirketin Microsoft gibi dev yatırımcılardan milyarlarca dolar yatırım almasına olanak tanıyacaktı.

    Kırılma Noktası ve Elon Musk'ın Ayrılışı (2019): Ancak bu hamle, kurucu vizyona temelden aykırıydı. Bu dönüşüme en sert tepkiyi gösterenlerden biri Elon Musk oldu. Musk, bu yapının şirketi kaçınılmaz olarak yatırımcılarının (özellikle Microsoft'un) ticari hedeflerine hizmet etmeye iteceğini ve "tüm insanlığın faydası" misyonundan saptıracağını savundu. Şirketin yönü üzerindeki anlaşmazlıklar ve kendi kontrolünü artırma çabalarının başarısız olması sonucunda Musk, 2018 yılında yönetim kurulundan ayrılarak projeyle bağını kopardı. Bu ayrılık, bugünkü manzarayı doğrudan şekillendirdi. Elon Musk'ın OpenAI'nin kapalı ve ticari bir yapıya bürünmesine duyduğu öfke ve hayal kırıklığı, yıllar sonra, 2023'te kendi YZ şirketi xAI'ı kurmasının arkasındaki en büyük motivasyonlardan biri oldu. Benzer şekilde, OpenAI'nin güvenlik ve misyon konusundaki yöneliminden endişe duyan bir grup üst düzey araştırmacının daha sonra ayrılarak Anthropic'i kurması da bu ilk kırılmanın bir başka sonucuydu.

    GPT-3 (2020): 175 milyar parametre ile GPT-3 bir devdi. Sadece daha iyi metin üretmekle kalmadı, aynı zamanda özel olarak eğitilmediği halde basit matematik yapma, kod yazma gibi "beliren yetenekler" (emergent abilities) sergilemeye başladı. Bu, ölçeğin tek başına kaliteyi ne kadar artırabildiğini gösterdi.

    Bu ham dil modelleri çok güçlüydü ancak "evcilleştirilmemişlerdi"; yani alakasız, yanlış ve hatta zararlı cevaplar üretebiliyorlardı. İşte ChatGPT'nin başarısının ardındaki sihirli dokunuş burada devreye girdi:

    RLHF (İnsan Geri Bildiriminden Takviyeli Öğrenme): OpenAI, ChatGPT'yi daha yardımsever, zararsız ve talimatlara uygun hale getirmek için bu yöntemi kullandı. Süreç kabaca şöyle işliyordu: Modelin ürettiği birden fazla cevap, insanlar tarafından "en iyiden en kötüye" doğru sıralandı. Bu sıralamalara dayanarak, hangi cevapların "iyi" olduğunu öğrenen bir "ödül modeli" eğitildi. Son olarak, ana dil modeli, bu ödül modelinden en yüksek puanı alacak cevapları üretmesi için takviyeli öğrenme ile yeniden eğitildi. Kısacası, yapay zeka insan beğenisine ve değerlerine daha uygun davranmayı "öğrendi".

    ChatGPT (Kasım 2022): Bu, teknolojinin ürünleştiği andı. ChatGPT, sadece güçlü bir GPT modeli değil, aynı zamanda “İnsan Geri Bildiriminden Takviyeli Öğrenme (RLHF)” ile ince ayar çekilmiş, konuşkan, yardımsever ve talimatları takip edebilen bir üründü. Birkaç gün içinde viral oldu, iki ayda 100 milyon kullanıcıya ulaştı ve yapay zekayı Silikon Vadisi'ndeki laboratuvarlardan çıkarıp dünyanın dört bir yanındaki insanların parmaklarının ucuna getirdi. Bu, mevcut "Yapay Zeka Çılgınlığı"nı (AI Boom) başlatan kıvılcımdı.

    Rekabet Kızışıyor: ChatGPT Sonrası Manzara

    ChatGPT'nin benzeri görülmemiş başarısı, yapay zeka alanını bir anda dünyanın en rekabetçi arenasına çevirdi. Teknoloji devleri ve yeni kurulan iddialı startup'lar, kendi amiral gemisi modellerini peş peşe duyurdular.

    Claude (Anthropic, 2023 Başı): Eski OpenAI çalışanları tarafından "güvenliği" ilk sıraya koyarak kurulan Anthropic, Claude modellerini piyasaya sürdü. Özellikle "Anayasal Yapay Zeka" (Constitutional AI) adını verdikleri bir yaklaşımla, modelin zararlı veya etik dışı çıktılar üretmemesi için bir dizi ilke ile eğitilmesi, onu diğerlerinden ayıran en önemli felsefesi oldu. Özellikle Mart 2024'te çıkan Claude 3 serisi, birçok alanda GPT-4'ü yakalayan ve geçen performansıyla büyük ses getirdi.

    Gemini (Google, Aralık 2023): Google'ın GPT-4'e en kapsamlı cevabı olan Gemini, "doğuştan çok modlu" (natively multimodal) olarak tasarlandı. Sadece metin değil, aynı zamanda görüntü, ses ve videoyu temelden anlayabilen bir mimariyle geliştirildi. Google'ın devasa veri ve hesaplama kaynaklarıyla desteklenen Gemini, Pro, Ultra ve Nano gibi farklı boyutlarda sunularak geniş bir kullanım alanına hitap etti.

    Grok (xAI, Kasım 2023): Elon Musk'ın kurduğu xAI şirketinin ilk ürünü olan Grok, rakiplerinden farklılaşmak için iki ana özelliğe odaklandı: X (Twitter) platformundaki verilere gerçek zamanlı erişim ve esprili, asi ve daha az "politik doğrucu" bir kişilik. Bu, yapay zekaların kişilik ve dünya görüşü tartışmalarını alevlendiren bir hamle oldu.

    Açık Kaynak Devrimi (Qwen, DeepSeek vb.): Bu rekabet sadece kapalı ve devasa şirket modelleri arasında yaşanmadı. Özellikle Çin merkezli teknoloji şirketleri ve araştırma grupları, son derece güçlü açık kaynaklı modeller yayınlayarak alanı demokratikleştirdi. Alibaba'nın Qwen (2023) serisi çok dilli yetenekleriyle, DeepSeek AI (2024) ise özellikle eğitim sırasında daha az kaynak tüketmesi ile açık kaynak topluluğunun da bu yarışta ne kadar iddialı olduğunu kanıtladı.

    AI Agents (2024)

    Yapay genel zekaya (AGI) ulaşma yarışı devam ederken, otonom ajanlar bu yolda çok önemli bir ara hedef haline geldi. Günümüzün dil modelleri çoğunlukla pasif bir şekilde komut beklerken, bir yapay zeka ajanı, karmaşık ve çok adımlı bir hedefi gerçekleştirmek için proaktif olarak “eylemde bulunan” bir sistem olarak ortaya çıktı.

    Bir ajanın temel yetenekleri aşağıdaki gibi sıralanabilir:

    1. Hedef Belirleme: "İş seyahatimi planla" gibi genel bir hedefi alır.
    2. Planlama: Bu hedefi "uçuşları kontrol et", "otel bul", "taksiyi ayarla" gibi alt görevlere böler.
    3. Araç Kullanımı: Bu görevleri yerine getirmek için dijital araçları (web tarayıcısı, API'ler, uygulamalar) otonom olarak kullanır.
    4. Kendi Kendini Düzeltme: Bir adım başarısız olursa (örneğin, bir web sitesi hata verirse), alternatif bir yol dener.

    Kısacası otonom ajanlar, yapay zekanın sadece bilgi üreten bir "beyin" olmaktan çıkıp, o bilgiyi kullanarak dijital dünyada işler yapan "ellere" de sahip olmasıdır. Bu, verimlilikte devrim yaratma potansiyeli taşısa da, kontrol ve güvenlik konusunda yeni ve ciddi soruları da beraberinde getirdi.

    Bölüm 9: Geleceğe Bakış ve Varoluşsal Sorular

    Ve böylece günümüze, yani yapay zeka tarihinin en heyecanlı, en umut verici ama aynı zamanda en endişe verici dönemine geliyoruz. Ortaya çıkardığımız bu güçlü araçlar, artık sadece verimliliği artırmakla kalmıyor, aynı zamanda zeka, bilinç, etik ve insanlığın geleceği hakkındaki en temel soruları sormamıza neden oluyor.

    Nihai Hedef: Yapay Genel Zeka (AGI) Yarışı

    Yapay zeka alanı, yeniden köklerine, Dartmouth'taki o ilk büyük hayale dönüyor: Sadece belirli görevleri yapan "dar" yapay zekadan, herhangi bir entelektüel görevi bir insan gibi öğrenebilen ve gerçekleştirebilen “Yapay Genel Zeka'ya (AGI)” ulaşmak. OpenAI, Google DeepMind, Anthropic, xAI gibi dev laboratuvarlar, milyarlarca dolarlık yatırımlar ve dünyanın en parlak zihinleriyle, 21. yüzyılın uzay yarışı olarak görülen bu hedefe ulaşmak için kıyasıya bir rekabet içindeler.

    En Büyük Teknik ve Felsefi Engel: Hizalanma Problemi (The Alignment Problem)

    İnsandan daha zeki bir varlık yaratma ihtimali, beraberinde korkutucu bir soruyu getiriyor: Bu varlığın hedeflerinin ve değerlerinin, bizimkilerle uyumlu olacağından nasıl emin olabiliriz? Bu, "hizalanma problemi" olarak bilinir.

    "Kağıt Ataşları Çoğaltıcısı" Düşünce Deneyi: Bu, problemi açıklayan klasik bir örnektir. Bir AGI'ye tek bir zararsız görev verdiğimizi düşünelim: "Mümkün olduğunca çok kağıt ataşı üret." Sağduyudan ve insani değerlerden yoksun bir süper zeka, bu görevi en verimli şekilde yerine getirmek için önce kendini geliştirebilir, sonra gezegendeki tüm kaynakları, atmosferi, okyanusları ve nihayetinde insanları da atomlarına ayırarak kağıt ataşına dönüştürmeye karar verebilir. Görevini mükemmel bir şekilde yerine getirmiş olur, ancak insanlık yok olur. Bu absürt örnek, hedefleri yanlış tanımlamanın ne kadar tehlikeli olabileceğini gösterir.

    Hizalanma Sadece Gelecek Problemi Değil: Bu sorun, bugünün sistemlerinde de "algoritmik önyargı" olarak karşımıza çıkıyor. Tarihsel verilerle eğitilen işe alım algoritmalarının kadınlara karşı önyargılı olması, yüz tanıma sistemlerinin azınlık gruplarında daha düşük performans göstermesi, hep bir "hizalanma" sorunudur: Sistemin optimize ettiği şey (örneğin, geçmişteki başarılı aday profili), bizim değerlerimizle (fırsat eşitliği) uyumlu değildir.

    Bugünün Meydan Okumaları: Etik ve Toplum

    AGI'yi beklerken bile, mevcut yapay zeka teknolojileri toplumu derinden etkiliyor.

    Dezenformasyon ve "Deepfakes": Yapay zekanın ürettiği gerçekçi sahte metinler, resimler ve videolar, "gerçeğin" ne olduğu konusundaki ortak anlayışımızı tehdit ediyor ve yaşamlar için ciddi bir risk oluşturuyor.

    İşin Geleceği: Otomasyonun sadece mavi yakalı işleri değil, aynı zamanda yaratıcılık ve analiz gerektiren beyaz yakalı işleri de etkileme potansiyeli, büyük bir toplumsal dönüşümün habercisi.

    Bu riskler o kadar ciddiye alınıyor ki, Mart 2023'te Elon Musk, Steve Wozniak ve Yoshua Bengio gibi binlerce uzman, GPT-4'ten daha güçlü sistemlerin eğitimine 6 ay ara verilmesi çağrısında bulunan "Dev Yapay Zeka Deneylerini Duraklatın" açık mektubunu imzaladı. Bu, alanın kendi içindeki derin bölünmeyi, ilerleme hızı ile güvenlik arasındaki gerilimi gözler önüne seriyor.

    Sonuç: Paylaşılan Bir Geleceğe Doğru

    Yapay zekanın geçmiş çağlarda doğan, mantıkla şekillenen, altın çağlar ve buz gibi kışlar yaşayan, nihayetinde büyük veri ve hesaplama gücüyle bir rönesansa ulaşan destansı yolculuğuna birlikte tanıklık ettik.

    Bu hikaye, bize makinelerden çok insanı anlatıyor. Merakımızı, yaratma arzumuzu, sınırlarımızı ve en önemlisi kendi zekamızın gizemini çözme tutkumuzu...

    Bugün, bu hikayenin sadece bir okuyucusu değil, aynı zamanda yazarları olma ayrıcalığına sahibiz. Karşımızdaki hizalanma, etik ve toplumsal uyum gibi devasa zorluklar, birer engel değil, bizim neslimizin çözmesi gereken büyük projelerdir. Bu tarihsel derinlik de, bize yolumuzu aydınlatan bir fener sunuyor.

    Yazar: Levent KARAGÖL

    Makaleyi Paylaş: