Marktkapitalisierung: $2.9641T -0.380%
Volumen (24h): $74.712B -14.710%
  • Marktkapitalisierung: $2.9641T -0.380%
  • Volumen (24h): $74.712B -14.710%
  • Angst- und Gier-Index:
  • Marktkapitalisierung: $2.9641T -0.380%
Kryptos
Themen
Cryptospedia
Nachricht
Cryptostopics
Videos
Top -Nachrichten
Kryptos
Themen
Cryptospedia
Nachricht
Cryptostopics
Videos
bitcoin
bitcoin

$94730.894315 USD

0.06%

ethereum
ethereum

$1803.817092 USD

0.22%

tether
tether

$1.000728 USD

0.04%

xrp
xrp

$2.242803 USD

-1.90%

bnb
bnb

$602.748908 USD

-0.53%

solana
solana

$147.616062 USD

0.03%

usd-coin
usd-coin

$1.000264 USD

0.02%

dogecoin
dogecoin

$0.175709 USD

-1.56%

cardano
cardano

$0.700941 USD

-0.38%

tron
tron

$0.243817 USD

-1.38%

sui
sui

$3.546432 USD

0.04%

chainlink
chainlink

$14.716170 USD

-1.94%

avalanche
avalanche

$21.873983 USD

0.35%

stellar
stellar

$0.280000 USD

-0.50%

unus-sed-leo
unus-sed-leo

$9.011306 USD

0.11%

Nachrichtenartikel zu Kryptowährungen

Meta veranstaltet seine erste Veranstaltung für KI-Entwickler, Lamacon, und kündigt an, dass es bereit ist, mit ChatGPT zu konkurrieren

Apr 30, 2025 at 04:15 am

Meta veranstaltete seine erste Veranstaltung für KI-Entwickler Lamacon im Hauptsitz des Unternehmens im Menlo Park, wo es bekannt gab, dass es bereit war, mit Chatgpt zu konkurrieren

Meta veranstaltet seine erste Veranstaltung für KI-Entwickler, Lamacon, und kündigt an, dass es bereit ist, mit ChatGPT zu konkurrieren

Meta held its first-ever event for AI developers, LlamaCon, at the company’s headquarters in Menlo Park, where it announced that it was ready to compete with ChatGPT from OpenAI, as well as Google, AWS, and AI-as-a-service startups.

Meta veranstaltete seine erste Veranstaltung für KI-Entwickler Lamacon im Hauptsitz des Unternehmens im Menlo Park, wo es bekannt gab, dass es bereit war, mit Chatgpt von OpenAI sowie Google, AWS und AI-AS-A-Service-Start-ups zu konkurrieren.

Meta Founder and CEO Mark Zuckerberg was joined by Co-Founder and CEO of Databricks, Ali Ghodsi.

Mark Zuckerberg, Gründer und CEO von Meta, wurde von Mitbegründer und CEO von Databricks, Ali Ghodsi, begleitet.

This is really a big deal for Meta and the AI industry as the maker of the popular open-source Llama LLM seeks to directly monetize the incredible adoption Meta has realized. Developers just access the model from the cloud; no hardware or software to install.

Dies ist wirklich eine große Sache für Meta und die KI-Industrie als Hersteller der beliebten Open-Source-LLM-LLM, um die unglaubliche Adoption, die Meta zu monetarisieren, direkt realisiert hat. Entwickler greifen nur aus der Cloud auf das Modell zu. Keine Hardware oder Software zu installieren.

But it is also a big deal for Cerebras and Groq, the two startups selected by Meta for serving fast tokens, many times faster than a GPU. (Nvidia, Cerebras and Groq are all clients of Cambrian-AI Research.) Meta did not disclose pricing, as access to the API is currently in preview, and access to Groq and Cerebras is only available by request. This is the first time either startup has landed a foothold at a hyper-scale Cloud Service Provider (CSP). And Meta has made it super easy to use; developers just select Groq or Cerebras in the API call.

Es ist aber auch eine große Sache für Cerebras und CREQ, die beiden von Meta ausgewählten Startups zum Servieren von Fast -Token, die um ein Vielfaches schneller als eine GPU dienen. (Nvidia, Cerebras und GROQ sind alle Kunden von Cambrian-AI-Forschung.) Meta hat keine Preise offengelegt, da der Zugriff auf die API derzeit in der Vorschau ist und der Zugriff auf GRE und Cerebras nur auf Anfrage verfügbar ist. Dies ist das erste Mal, dass ein Startup bei einem Hyper-Scale-Cloud-Dienstanbieter (CSP) Fuß fasst. Und Meta hat es super einfach gemacht; Entwickler wählen im API -Aufruf einfach GOQ oder Cerebras aus.

Cerebras is the industry's fastest inference processor by far (~18X) but Grok is also 5-fold faster ... More than any GPU.

Cerebras ist bei weitem der schnellste Inferenzprozessor der Branche (~ 18x), aber GROK ist auch 5-fach schneller ... mehr als jede GPU.

“Cerebras is proud to make Llama API the fastest inference API in the world,” said Andrew Feldman, CEO and co-founder of Cerebras. “Developers building agentic and real-time apps need speed. With Cerebras on Llama API, they can build AI systems that are fundamentally out of reach for leading GPU-based inference clouds.”

"Cerebras ist stolz darauf, die Lama-API zur schnellsten Inferenz-API der Welt zu machen", sagte Andrew Feldman, CEO und Mitbegründer von Cerebras. "Entwickler, die Agenten und Echtzeit-Apps bauen, benötigen Geschwindigkeit. Mit Cerebras auf Lama-API können sie KI-Systeme erstellen, die grundlegend außerhalb der Reichweite für führende GPU-basierte Inferenzwolken sind."

Microsoft Confirms $1.50 Windows Security Update Hotpatch Fee Starts July 1

Microsoft bestätigt 1,50 USD Windows Security Update Die Hotpatch -Gebühr beginnt am 1. Juli

Microsoft Confirms Password Spraying Attack — What You Need To Know

Microsoft bestätigt das Kennwortsprühangriff - was Sie wissen müssen

Google’s Gmail Upgrade—Why You Need To Change Your App

Googles Google Mail -Upgrade von Google - warum Sie Ihre App ändern müssen

Llama on Cerebras is far faster than on Google TPUs or Nvidia GPUs.

Lama über Cerebras ist weitaus schneller als bei Google TPUs oder Nvidia GPUs.

Andrew’s point is important. Obtaining inferences at some 100 tokens per second is faster than a human can read, so “one-shot” inference requests for a service like ChatGPT runs just fine on GPUs. But multi-model agents and reasoning models can increase computational requirements by some 100-fold, opening an opportunity for faster inference from companies like Cerebras, Groq. Meta did not mention the third fast-inference company, Samba Nova, but indicated that they are open to other compute options in the future.

Andrews Punkt ist wichtig. Das Erhalten von Schlussfolgerungen bei rund 100 Token pro Sekunde ist schneller als ein Mensch lesen kann. Inferenzanfragen für einen Dienst wie Chatgpt läuft also gut für GPUs. Multi-Modell-Agenten und Argumentationsmodelle können jedoch die Rechenanforderungen um etwa 100-fach erhöhen und eine Chance für eine schnellere Inferenz von Unternehmen wie Cerebras, COQ, eröffnen. Meta erwähnte die dritte Fast-Inferenz-Firma, Samba Nova, nicht, gab jedoch an, dass sie in Zukunft für andere Rechenoptionen offen sind.

It will be interesting to see how well these two new options fare in the tokens-as-a-service world.

Es wird interessant sein zu sehen, wie gut sich diese beiden neuen Optionen in der Welt der Tokens-A-A-Service ergeben.

Haftungsausschluss:info@kdj.com

Die bereitgestellten Informationen stellen keine Handelsberatung dar. kdj.com übernimmt keine Verantwortung für Investitionen, die auf der Grundlage der in diesem Artikel bereitgestellten Informationen getätigt werden. Kryptowährungen sind sehr volatil und es wird dringend empfohlen, nach gründlicher Recherche mit Vorsicht zu investieren!

Wenn Sie glauben, dass der auf dieser Website verwendete Inhalt Ihr Urheberrecht verletzt, kontaktieren Sie uns bitte umgehend (info@kdj.com) und wir werden ihn umgehend löschen.

Weitere Artikel veröffentlicht am Apr 30, 2025