23 Mart 2026 Pazartesi
DOLAR 44.32 ₺
EURO 51.30 ₺
STERLIN 59.27 ₺
G.ALTIN 6,237.55 ₺
BTC 68,189.27 $
ETH 2,059.04 $
BİST 0.00

    Tether, Yapay Zekâda Maliyet Devrimini Başlattı: Artık Herkes Kendi Cihazında AI Eğitebilecek!

    Teknoloji 30
    Yayınlama: 23 Mart 2026 Pazartesi 13:46 Kaynak: Kapsül Haber Ajansı

    Tether, yapay zekâ eğitiminde ezber bozan bir yeniliğe imza attı! Artık milyar parametreli dil modelleri bile cebinizdeki telefonla eğitilebiliyor, maliyetler ise tarihe karışıyor.

    Tether, Yapay Zekâda Maliyet Devrimini Başlattı: Artık Herkes Kendi Cihazında AI Eğitebilecek!

    Yapay zekâ teknolojileri hızla gelişirken, bu güçlü araçlara erişim ve onları eğitme maliyeti, birçok kişi ve kuruluş için büyük bir engel teşkil ediyordu. Ancak Tether, geliştirdiği çığır açan teknolojiyle bu durumu kökten değiştiriyor. Microsoft'un BitNet mimarisi üzerine inşa edilen ve QVAC Fabric kapsamında sunulan yeni LoRA ince ayar çerçevesi, yapay zekâ model eğitimini dizüstü bilgisayarlara, tüketici GPU'larına ve hatta akıllı telefonlara taşıyor. Bu yenilik sayesinde, milyar parametreli dil modellerini eğitmek artık devasa sunuculara veya bulut altyapılarına bağımlı olmaktan çıkıyor. Tether'in bu hamlesi, yapay zekânın gerçek anlamda herkes için erişilebilir hale geldiği, maliyetlerin büyük ölçüde düştüğü ve inovasyonun sınır tanımadığı 'Stabil Zekâ' çağının kapılarını aralıyor.

    Tether, Microsoft’un 1 bitlik BitNet modelleri için geliştirdiği çapraz platform LoRA ince ayar teknolojisiyle yapay zekâ model eğitimini daha hızlı, düşük maliyetli ve erişilebilir hale getiren yeni bir adım attı.

    Tether, yapay zekâ model eğitimini daha erişilebilir hale getiren yeni bir teknoloji açıkladı. Microsoft’un 1 bitlik BitNet mimarisi üzerine geliştirilen ve QVAC Fabric kapsamında sunulan bu çapraz platform LoRA ince ayar çerçevesi; bellek ve işlem maliyetlerini ciddi ölçüde düşürerek milyar parametreli dil modellerinin dizüstü bilgisayarlar, tüketici GPU’ları ve hatta akıllı telefonlar üzerinde çalıştırılmasını mümkün kılıyor.

    Geleneksel olarak yalnızca yüksek maliyetli kurumsal donanım ve bulut altyapılarıyla yapılabilen yapay zekâ model geliştirme süreçleri, bu yenilikle birlikte çok daha geniş bir kullanıcı kitlesine açılıyor. Intel, AMD ve Apple Silicon gibi farklı donanımlar üzerinde çalışabilen yapı, kullanıcıların modelleri doğrudan kendi cihazlarında eğitip özelleştirmesine imkân tanıyor.

    Tether’in mühendislik ekibinin bu çalışması, Adreno, Mali ve Apple Bionic GPU’lar dahil olmak üzere mobil GPU’larda BitNet ince ayarının ilk başarılı gösterimlerinden biri olarak öne çıkıyor. Kullanıcılar, 125 milyon parametreli BitNet modellerine yaklaşık 300 belgelik, yani yaklaşık 18 bin tokenlik biyomedikal bir veri setiyle bir Samsung S25 Adreno GPU üzerinde yaklaşık 10 dakikada ince ayar yapabiliyor. 1 milyar parametreli model için aynı veri setinin ince ayarı Samsung S25’te 1 saat 18 dakika, iPhone 16’da ise 1 saat 45 dakika sürüyor. Ekip, cihazların sınırlarını zorlayarak iPhone 16’da 13 milyar parametreye kadar modellere ince ayar yapmayı da başardı.

    Çerçeve, uç cihazlarda Q4 BitNet olmayan modellere kıyasla 2 kat daha büyük modellere ince ayar yapılabildiğini de gösteriyor. Bu da BitNet mimarisinin sunduğu bellek avantajını net şekilde ortaya koyuyor.

    BitNet’in çıkarım performansı da QVAC Fabric ile birlikte önemli ölçüde artıyor. Model ailesi mobil GPU’larda çok daha hızlı çalışıyor. Bu cihazlarda GPU performansının CPU’ya kıyasla 2 ila 11 kat daha yüksek olduğu görülüyor. Bu da günümüz mobil GPU’larının, daha önce yalnızca pahalı özel donanımlar veya veri merkezleriyle mümkün olan iş yüklerini destekleyebileceğini ortaya koyuyor.

    Bellek tarafında da dikkat çekici bir tablo var. Yapılan karşılaştırmalı testlere göre BitNet-1B TQ1_0 modeli, hem çıkarım hem de LoRA ince ayar süreçlerinde Gemma-3-1B 16 bit modele göre yüzde 77,8’e kadar, Qwen3-0.6B 16 bit modele göre ise yüzde 65,6’ya kadar daha az VRAM kullanıyor. Bu tasarruf, daha büyük modellerin ve kişiselleştirme süreçlerinin, kısa süre öncesine kadar yetersiz kabul edilen donanımlarda bile çalıştırılabilmesini sağlıyor.

    Öte yandan çerçeve, NVIDIA dışındaki donanımlarda 1 bitlik büyük dil modelleri için LoRA ince ayarına olanak tanıyarak desteği AMD, Intel, Apple Silicon ve mobil GPU’lara kadar genişletiyor. Böylece özel donanıma ve bulut sağlayıcılarına bağımlılık azalırken, hassas veriler cihaz üzerinde yerel olarak tutulabiliyor. Bu yaklaşım, federe öğrenme gibi yöntemleri de daha erişilebilir hale getirerek, verilerin merkezi sistemlere taşınmadan cihazlar arasında eğitilip paylaşılabilmesine imkân tanıyor.

    “Stabil Zekâ çağı yeni başladı”

    Tether CEO’su Paolo Ardoino konuyla ilgili olarak şunları söyledi:

    “Zekâ, toplumun geleceğinde temel bir belirleyici faktör olacaktır. Toplumun istikrarını iyileştirme, bağ dokusu olarak hizmet etme veya azınlığı daha da güçlendirme potansiyeline sahiptir. Yapay zekânın geleceği, her yerdeki insanlar ve geliştiriciler için erişilebilir, kullanılabilir ve açık olmalıdır; yalnızca bir avuç bulut sağlayıcısının erişebileceği absürt miktarda kaynak gerektirmemelidir. Büyük dil modellerinin eğitimi merkezi altyapıya bağlı olduğunda inovasyon durgunlaşır, ekosistem kırılganlaşır ve toplumsal denge riske girer. Akıllı telefonlar dahil olmak üzere tüketici donanımlarında anlamlı büyük model eğitimini mümkün kılan Tether’in QVAC’ı, gelişmiş yapay zekânın herkes için merkeziyetsiz, kapsayıcı ve güçlendirici olabileceğini gösteriyor. Tether olarak, yapay zekânın herkes için, her yerde ve cihaz üzerinde yerel olarak erişilebilir olması için önümüzdeki dönemde de önemli kaynak ve yatırım ayırmayı sürdüreceğiz. Stabil Zekâ çağı yeni başladı.”

    Makale; adaptörler, karşılaştırmalı testler ve çapraz platform ikili dosyalar dahil olmak üzere tüm teknik detaylarıyla Hugging Face blogunda “QVAC Fabric Aracılığıyla Heterojen Uç GPU’larda LoRA İnce Ayarlı BitNet b1.58 Büyük Dil Modelleri” başlığıyla yer alıyor.

    Kaynak: (KAHA) Kapsül Haber Ajansı

    Tether'in son yeniliği, yapay zekâ dünyasında dönüştürücü bir etki yaratmaya hazırlanıyor. Şirket, Microsoft'un 1 bitlik BitNet modelleri için geliştirdiği ve QVAC Fabric çatısı altında sunduğu çapraz platform LoRA ince ayar teknolojisiyle, yapay zekâ model eğitiminin yüksek maliyetli ve karmaşık yapısını ortadan kaldırıyor. Bu çığır açan çerçeve, milyar parametreli dil modellerinin dahi dizüstü bilgisayarlar, tüketici GPU'ları ve hatta akıllı telefonlar gibi standart tüketici cihazlarında çok daha hızlı, ekonomik ve verimli bir şekilde eğitilmesine olanak tanıyor. Özellikle Intel, AMD ve Apple Silicon gibi farklı donanımlarda çalışabilmesi ve mobil GPU'larda elde edilen etkileyici ince ayar performansları (örneğin Samsung S25 ve iPhone 16 ile yapılan testler), bu teknolojinin geniş bir kullanıcı kitlesine ulaşmasının önünü açıyor. Bellek kullanımında (VRAM) yüzde 77'ye varan önemli tasarruflar ve çıkarım performansındaki ciddi artışlar, BitNet mimarisinin üstünlüğünü kanıtlıyor. Ayrıca, NVIDIA dışındaki donanımlara da 1 bitlik büyük dil modelleri için LoRA desteği getirerek, merkezi bulut altyapılarına olan bağımlılığı azaltıyor ve hassas verilerin cihaz üzerinde güvenli bir şekilde işlenmesini teşvik ediyor. Tether CEO'su Paolo Ardoino'nun da vurguladığı gibi, bu hamle yapay zekânın sadece seçkin bir azınlığın değil, herkesin erişebileceği, merkeziyetsiz ve kapsayıcı bir geleceğe doğru atılmış önemli bir adım olarak 'Stabil Zekâ' çağının başlangıcını müjdeliyor. Teknik detaylara Hugging Face blogundaki ilgili makaleden ulaşılabilir.

    BENZER HABER
    İlk Yorumu Sen Yaz
    code