• Cum. Ara 27th, 2024

Voltron Data, büyük verileri işlemek için yapay zeka dostu çipler kullanıyor

ByArife Polat Düzgün

Ara 9, 2024

Yapay zeka patlaması, grafik işlem birimlerine, modern üretken yapay zekaya ve diğer makine öğrenimi uygulamalarına güç sağlamak için kullanılan yüksek performanslı bilgi işlem çiplerine olan ilgiyi yeniden artırdı.

ve buna startup denir Voltron Verileri Bazıları, siber güvenlik amacıyla büyük sunucu günlüklerini taramak, büyük finansal veri kümelerini analiz etmek veya otonom arabalar gibi karmaşık sistemlerden telemetri verilerini işlemek gibi büyük veri analitiği görevlerini verimli bir şekilde gerçekleştirmek için aynı GPU’ları kullanıyor. Voltron Data’nın kurucu ortağı ve Field CTO’su Rodrigo, yaklaşık 30 terabayt veriden başlayan yeterince büyük hacimlerde, veritabanı sorgularının geleneksel bilgi işlem yongalarında darboğaz oluşturabileceğini, daha fazla bilgi işlem gücü ekledikçe işlem süresinin artık doğrusal bir şekilde azalmadığını söylüyor. Aramburu. .

“İşler gerçekten büyüdüğünde, gerçekten tuhaflaşıyorlar” diyor. “Birim ekonomisi temelde çöküyor.”

Ancak Nvidia’nın modern GPU’ları ve bunları içeren sunucuları, büyük miktarlarda veriyi işlemci çiplerine geleneksel CPU tabanlı sistemlerden daha hızlı aktarmak üzere tasarlandığını söylüyor. GPU’lar, verileri aramak ve sıralamak veya birden fazla büyük tablodaki verileri birleştirmek için gereken matematiksel işlemleri hızlı bir şekilde işleyebilir, böylece veri kümeleri akıllara durgunluk verecek kadar büyük olduğunda bile veritabanı işlemlerini verimli hale getirir.

Aramburu, “Bütün bu küçük şeyler bir araya geliyor” dedi. “Veritabanı işlemleri açısından bakıldığında, bunlardan nasıl yararlanacağınızı biliyorsanız ve tüm bu donanım hızlandırmalarından yararlanmak için sıfırdan bir şeyler oluşturursanız, GPU’lardan gerçekten çok iyi bir performans elde edeceksiniz. “

Voltron Data’nın yazılımını kullanan şirketlere denir TheseusCPU ile çalışan sistem filolarının çok sayıda GPU merkezli sunucularla değiştirilebildiğini, bazen daha önce kullanılan her 100 sunucu için yalnızca bir GPU ile çalışan sunucunun değiştirildiğini söyledi. Bu, büyük verileri işlemek için gereken güç ve gayrimenkul miktarını önemli ölçüde azaltabilir ve hatta veri işleme görevleri daha hızlı gerçekleştirilir.

Büyük bir perakende müşterisinin, satışları tahmin etmek ve bireysel mağazalara gönderilen bozulabilir malların hacmini optimize etmek için tasarlanmış gecelik bir süreci vardı. CPU tabanlı bir sistemde işlemin yürütülmesi genellikle yaklaşık sekiz saat sürer. Voltron Data’nın GPU odaklı mimarisi sayesinde yalnızca 25 dakikada çalışabilir. Hızlanma, daha önce bir şeyin her gece sekiz saat veya daha fazla çalışma sırasında süreci tıkaması durumunda çok az kesinti yaşayan şirket için bir rahatlama oldu ve geliştiricilere kodun farklı sürümlerini test etme yeteneği vererek daha fazla tahmin yapmalarına olanak sağladı. Doğru ve istediğiniz yerde daha fazla ürün satın alın.

“Modelin doğruluğunu makul bir şekilde birkaç yüzde puanı etkileyecek kadar tekrarlamayı başardılar” diyor.

Voltron Data’nın kendi mühendislerinin, GPU’lar için veri işleme görevlerinin nasıl optimize edileceğine ilişkin ayrıntıları bilmesi gerekir, ancak şirketin müşterilerindeki geliştiriciler ve veritabanı mühendisleri, SQL’i, standart veritabanı dillerini veya çeşitli programlama dillerindeki veri çerçevesi işleme kitaplıklarını kullanarak sorgu yazmaya devam edebilirler. . Verileri standart veri gölü ortamlarında ve ortak formatlarda depolamaya devam edebilirler; Voltron Data yazılımı, sorgu çalıştırma zamanı geldiğinde verileri esasen işler.

Voltron Data kendi bulut sistemlerini barındırmıyor; bunun yerine müşteriler yazılımı kendi veri merkezlerinde veya mevcut bulut ağlarında zaten kontrol ettikleri bilgisayarlara kuruyorlar. Aramburu, çoğu durumda, önceki nesil AI araçlarıyla geliştirme gibi başka amaçlarla edindikleri, büyük ölçüde boşta olan GPU sunucularından yararlanabildiklerini söylüyor.

Şirketin sisteminin her iş için veya her iş için gerekli olmadığını hemen kabul ediyor. Küçük veri kümeleri için geleneksel veritabanı araçları, özellikle performansı nasıl optimize edeceğini bilen yetenekli programcılar tarafından kullanıldıklarında hâlâ anlamlıdır. Ancak doğru ölçekte verilerle çalışan kuruluşlar için faydalar ortaya çıkmaya başlıyor.

“Tüm bu algoritmik tekniklerin kullanışlılığını kaybetmeye başlıyoruz ve tüm verileri olabildiğince hızlı işleyebilmemiz gerekiyor” diyor. “Bu, tüm bu gelişmiş donanımdan yararlanabilen bizimki gibi bir motorun, bunları çok hızlı bir şekilde tamamlayabileceği yerdir.”

Source link