In een opvallende ontwikkeling voor de technologiewereld heeft het onlangs gelanceerde io.net, onderdeel van het gedecentraliseerde fysieke infrastructuurnetwerk (DePIN), aangekondigd dat het Apple siliciumchiphardware gaat integreren voor zijn diensten op het gebied van kunstmatige intelligentie (AI) en machine learning (ML).
Eén van het eerste platform met ondersteuning voor Apple siliciumchipclustering
Het bedrijf, dat een op Solana gebaseerd gedecentraliseerd netwerk heeft ontwikkeld, betrekt rekenkracht van de grafische verwerkingseenheid (GPU) van geografisch verspreide datacenters, cryptocurrency-miners en gedecentraliseerde opslagproviders om AI- en ML-computing te voeden.
De lancering van het bètaplatform werd aangekondigd tijdens de Solana Breakpoint-conferentie in Amsterdam in november 2023, een evenement dat ook het toneel was voor de aankondiging van een partnerschap met Render Network.
Io.net stelt dat deze laatste upgrade het platform de eerste cloudservice maakt die Apple siliciumchipclustering voor machine learning-toepassingen ondersteunt, waardoor ingenieurs wereldwijd Apple-chips kunnen clusteren voor ML- en AI-toepassingen.
Het platform biedt kosteneffectieve GPU-computerbronnen voor AI- en ML-scenario’s, met gebruik van de blockchain van Solana voor het vergemakkelijken van betalingen aan GPU- en centrale computerleveranciers.
Solana-infrastructuur ideal voor io.net
Tory Green, de chief operating officer van io.net, benadrukt dat de infrastructuur van Solana ideaal is voor het faciliteren van de schaal van transacties en inferenties die door io.net worden ondersteund, met een clustering van GPU-rekenkracht die talloze inferenties en bijbehorende microtransacties mogelijk maakt.
De upgrade stelt io.net-gebruikers in staat rekenkracht te leveren met een scala aan Apple Silicon-chips, waaronder modellen zoals de M1, M1 Max, M1 Pro, M1 Ultra; M2, M2 Max, M2 Pro, M2 Ultra; en M3, M3 Max en M3 Pro.
Io.net benadrukt de superioriteit van Apple’s M3-chips met hun 128 megabyte geheugenarchitectuur over Nvidia’s A100-80 gigabyte grafische kaarten, aangedreven door een verbeterde neurale engine die 60% sneller is dan de M1-serie.
De uniforme geheugenarchitectuur van deze chips maakt ze bijzonder geschikt voor modelinferentie, het proces waarbij live gegevens door een AI-model worden geleid voor voorspellingen of het oplossen van taken.
Ahmad Shadid, oprichter van io.net, ziet de toevoeging van Apple-chipondersteuning als een belangrijke stap in het democratiseren van toegang tot krachtige computerbronnen, waardoor miljoenen Apple-gebruikers kunnen deelnemen aan de AI-revolutie door hun reservechip- en computerbronnen beschikbaar te stellen voor AI- en ML-toepassingen.
Het bericht Nieuw netwerk brengt Apple Silicon naar Kunstmatige Intelligentie en Machine Learning verscheen eerst op Newsbit.