Amazon gaat volgens ingewijden miljoenen investeren in een trainingsmodel voor kunstmatige intelligentie (AI) dat vergelijkbare modellen van OpenAI en Alphabet achter zich moet laten. Het model, met de codenaam Olympus, moet tot twee keer zoveel data kunnen beoordelen en verwerken als GPT-4 van OpenAI, een van de beste nu beschikbare modellen.
Olympus zou maar liefst 2 biljoen parameters omvatten, terwijl GPT-4 het doet met ‘slechts’ 1 biljoen parameters. Dit ambitieuze AI-project van Amazon en de bijbehorende miljoeneninvestering worden nu onthuld door persbureau Reuters, op basis van gesprekken met anonieme bronnen. Amazon weigert commentaar te geven.
AI-inspanningen verenigd
Volgens de ingewijde bronnen van Reuters heeft Amazon al een speciaal team samengesteld voor zijn AI-haasjeover. Het hoofd van die nieuwe groep is Rohit Prasad, die voorheen hoofd was van Amazons AI-aangedreven spraakassistent Alexa die onder meer dienst doet in de slimme Echo-speakers van de webwinkelreus. Prasad rapporteert direct aan Amazon-CEO Andy Jassy en heeft als hoofdwetenschapper op het gebied van AI de diverse AI-inspanningen van het bedrijf verenigt, schrijft Reuters.
Amazon investeerde onlangs al 4 miljard dollar in het AI-bedrijf Anthropic, dat werkt aan chatbot Claude. Amazon heeft al ervaring opgedaan met zogenoemde Large Language Models (LLM’s), maar is ervan overtuigd dat zakelijke klanten toegang willen hebben tot de best presterende modellen. LLM’s vormen de onderliggende technologie om op grote schaal gegevens te verwerken. Het trainen van grotere AI-modellen is duurder door de benodigde hoeveelheid rekenkracht.
Amazon wijdt een team aan het trainen van een ambitieus AI-model met de codenaam ‘Olympus’ -bronnen
Amazon (AMZN.O) investeert miljoenen in het trainen van een ambitieus groottaalmodel (LLM’s), in de hoop dat het kan wedijveren met topmodellen van OpenAI en Alphabet (GOOGL.O) , vertelden twee mensen die bekend waren met de zaak aan Reuters.
Het model, met de codenaam ‘Olympus’, heeft 2 biljoen parameters, zeiden de mensen, waardoor het een van de grootste modellen zou kunnen zijn die worden getraind. Het GPT-4-model van OpenAI, een van de beste beschikbare modellen, heeft naar verluidt één biljoen parameters.
De mensen spraken op voorwaarde van anonimiteit omdat de details van het project nog niet openbaar waren.
Amazon weigerde commentaar te geven. Het Informatieblad berichtte dinsdag over de projectnaam.
Het team wordt geleid door Rohit Prasad, voormalig hoofd van Alexa, die nu rechtstreeks rapporteert aan CEO Andy Jassy. Als hoofdwetenschapper van kunstmatige algemene intelligentie (AGI) bij Amazon schakelde Prasad onderzoekers in die aan Alexa AI en het wetenschapsteam van Amazon hadden gewerkt om aan trainingsmodellen te werken, waarbij AI-inspanningen in het hele bedrijf werden gebundeld met speciale middelen.
Amazon heeft al kleinere modellen zoals Titan getraind. Het werkt ook samen met AI-modelstartups zoals Anthropic en AI21 Labs en biedt deze aan gebruikers van Amazon Web Services (AWS).
Amazon gelooft dat het hebben van eigen modellen zijn aanbod aantrekkelijker zou kunnen maken op AWS, waar zakelijke klanten toegang willen hebben tot de best presterende modellen, zeiden de mensen die bekend zijn met de kwestie, eraan toevoegend dat er geen specifieke tijdlijn is voor het uitbrengen van het nieuwe model.
LLM’s vormen de onderliggende technologie voor AI-tools die leren van enorme datasets om mensachtige reacties te genereren.
Het trainen van grotere AI-modellen is duurder gezien de benodigde hoeveelheid rekenkracht. In een winstoproep in april zeiden leidinggevenden van Amazon dat het bedrijf de investeringen in LLM’s en generatieve AI zou verhogen en tegelijkertijd zou bezuinigen op de uitvoering en het transport in de detailhandel.
Onder leiding van Rohit Prasad, het voormalige hoofd van Alexa, die nu rechtstreeks rapporteert aan CEO Andy Jassy, heeft het ambitieuze project tot doel Amazon te positioneren als een belangrijke speler op het gebied van taalmodellen. Prasad, momenteel werkzaam als hoofdwetenschapper van algemene kunstmatige intelligentie (AI) bij Amazon, heeft onderzoekers van het Alexa AI-team en de wetenschappelijke afdeling van Amazon samengebracht om samen te werken aan trainingsmodellen.
Naast Olympus heeft Amazon eerder geïnvesteerd in het trainen van kleinere modellen zoals Titan, en heeft het ook samengewerkt met AI-modelstartups zoals Anthropic en AI21 Labs, waardoor hun modellen beschikbaar zijn voor gebruikers van Amazon Web Services (AWS). Door zijn eigen taalmodellen te ontwikkelen hoopt Amazon zakelijke klanten aan te trekken die afhankelijk zijn van AWS en prioriteit geven aan de toegang tot de best presterende modellen voor hun applicaties.
Aan het trainen van grote AI-modellen hangt een flink prijskaartje vanwege de aanzienlijke rekenkracht die daarvoor nodig is. Tijdens een winstoproep in april spraken leidinggevenden van Amazon echter hun engagement uit om de investeringen in LLM’s en generatieve AI te vergroten, terwijl ze de kosten op gebieden als fulfilment en transport binnen de detailhandel zouden verlagen.
Nu de concurrentie op het gebied van taalmodellen toeneemt, positioneert Amazon’s ambitieuze project om zijn eigen LLM te ontwikkelen de technologiegigant als een geduchte concurrent tegen marktleiders als OpenAI en Alphabet. Met Olympus en de expertise van het team van Prasad positioneert Amazon zichzelf om een revolutie teweeg te brengen in het AI-landschap en zijn aanbod op AWS te verbeteren, waardoor bedrijven worden aangetrokken die op zoek zijn naar geavanceerde taalmodellen en transformatieve AI-oplossingen.
FAQ:
Vraag: Wat is het doel van de investering van Amazon in het trainen van grote taalmodellen?
A: Amazon wil concurreren met de topmodellen die zijn ontwikkeld door OpenAI en Alphabet en zichzelf positioneren als een belangrijke speler op het gebied van taalmodellen.
Vraag: Hoeveel parameters heeft Amazons taalmodel Olympus?
A: Olympus beschikt over maar liefst 2 biljoen parameters, waardoor het mogelijk een van de grootste modellen is die momenteel worden getraind.
Vraag: Wie leidt het taalmodelproject van Amazon?
A: Het project wordt geleid door Rohit Prasad, het voormalige hoofd van Alexa, die nu rechtstreeks rapporteert aan CEO Andy Jassy.
Vraag: Wat is het doel van Amazon bij het ontwikkelen van zijn eigen taalmodellen?
A: Door zijn eigen modellen te ontwikkelen hoopt Amazon zakelijke klanten aan te trekken die afhankelijk zijn van AWS en prioriteit geven aan de toegang tot de best presterende modellen voor hun applicaties.
Vraag: Hoe heeft Amazon het trainen van taalmodellen eerder benaderd?
A: Amazon heeft eerder geïnvesteerd in het trainen van kleinere modellen zoals Titan en werkt samen met AI-modelstartups om hun modellen beschikbaar te maken voor gebruikers van Amazon Web Services (AWS).
Definities:
Taalmodel (LLM): Een taalmodel is een computationeel model dat wordt gebruikt bij de verwerking van natuurlijke taal en kunstmatige intelligentie om menselijke taal te analyseren en te genereren.
Jargon:
Best presterende modellen: Taalmodellen die zeer effectief zijn en superieure resultaten opleveren in vergelijking met andere modellen.
Generatieve AI: een tak van kunstmatige intelligentie die zich richt op het creëren van systemen die autonoom nieuwe inhoud of reacties kunnen genereren.
Gerelateerde Links:
OpenAI – De officiële website van OpenAI biedt informatie over hun taalmodellen en AI-onderzoek.
Alphabet – Alphabet is het moederbedrijf van Google, dat vooraanstaande taalmodellen heeft ontwikkeld.
Amazon Web Services (AWS) – Amazons cloud computing-platform dat toegang biedt tot verschillende AI-diensten en infrastructuur.
AWS AI Solutions – Lees meer over de AI-oplossingen en aanbiedingen van Amazon Web Services.
AWS Machine Learning – Ontdek de machine learning-mogelijkheden en -tools van Amazon Web Services.