De sociale gigant is al jaren bezig met het plannen van AI-aangedreven mixed reality headsets. De nieuwste Llama brengt het dichter bij dat doel.
Meta’s AI mixed reality-visie komt tot stand
Meta zegt dat het zijn Meta AI-assistent vanaf augustus in zijn Quest mixed reality-headsets zal plaatsen. Op de Quest 3 kan de artificiële intelligentie naar objecten in de echte wereld kijken via de passthrough-video van de headset (d.w.z. een liveweergave van de buitenwereld die wordt uitgezonden op het scherm van het apparaat) en informatie over hen verstrekken. Dat betekent dat je zowel een video in de headset van een resort in Palm Springs kunt bekijken en de artificiële intelligentie kunt vragen naar goede vakantieoutfits, of een korte broek omhoog kunt houden via passthrough en de artificiële intelligentie kunt vragen welke kleur shirt erbij past.
Achter deze magie zit een Meta’s Llama open-source model . De AI-functies binnen Quest 3 moeten worden aangestuurd door een nieuw Llama-model dat multimodaal is, een model dat computer vision kan gebruiken om visuele beelden te verwerken en te redeneren. (Het model dat de Quest aanstuurt, verschilt van de modellen die Meta dinsdag aankondigde .) De Meta AI-assistent wordt al aangeboden in de Ray-Ban Meta smart glasses, maar alleen als audio.
De aankondiging van Quest 3 markeert de volgende stap van de social media gigant naar zijn jarenlange doel om een AI-assistent te gebruiken als een centraal kenmerk van zijn mixed reality headsets en brillen. Michael Abrash, hoofdwetenschapper bij Meta Reality Labs, vertelde me in 2020 dat Meta-hoofdgedragen apparaten op een dag allerlei informatie zouden verzamelen over de gewoonten, smaken en relaties van de gebruiker, allemaal van de camera’s, sensoren en microfoons van het apparaat.
Al die gegevens, zei Abrash, zouden kunnen worden ingevoerd in krachtige AI-modellen die vervolgens diepgaande conclusies zouden kunnen trekken over welke informatie je nodig zou kunnen hebben of welke activiteiten je zou kunnen ondernemen.
“Het is als… een vriend die op je schouder zit en je leven vanuit je eigen egocentrische perspectief kan zien en je kan helpen,” zei Abrash destijds. “[Het] ziet je leven vanuit jouw perspectief, dus opeens kan het de dingen weten die jij zou weten als je jezelf zou proberen te helpen.”
Meta heeft nog veel werk te doen om hoofdgedragen computers kleiner, lichter en modieuzer te maken. Het bedrijf moet ook nieuwe chips uitvinden die klein en krachtig genoeg zijn om AI-modellen te draaien. Toch lijkt Abrash’s visie voor AI-aangedreven mixed reality dichterbij dan ooit.
Wat zou Kamala Harris vinden van AI-regelgeving?
Silicon Valley begint nu pas te begrijpen hoe een Kamala Harris-regering eruit zou kunnen zien, inclusief haar standpunt over het reguleren van artificiële intelligentie. De veronderstelling is dat Harris de hoofdthema’s van Bidens uitvoerende order over artificiële intelligentie zou blijven promoten. Hoewel de uitvoerende order federale agentschappen opdraagt om richtlijnen voor het gebruik van artificiële intelligentie te ontwikkelen, schetst het ook enkele richtlijnen voor het reguleren van particuliere Amerikaanse bedrijven die de grootste frontiermodellen ontwikkelen. Die bedrijven, zoals OpenAI, Anthropic, Meta, Google en Microsoft, zouden periodiek aan de overheid verslag moeten uitbrengen over hun AI-veiligheidspraktijken.
Sommigen in de techindustrie hebben geroepen dat dergelijke vereisten de voortgang van AI-onderzoek zouden vertragen . Anderen zeggen dat de definitie van de overheid van een “frontier”-model binnenkort het werk van kleinere AI-bedrijven zal omvatten, die onder onredelijke druk zullen worden gezet om te voldoen aan regelgeving. Harris, die oorspronkelijk door Biden werd aangetrokken om de gesprekken van het Witte Huis met AI-bedrijven te leiden, heeft de keuze tussen regelgeving en vooruitgang een “valse keuze” genoemd.
Toch lijkt Harris te geloven dat artificiële intelligentie een ernstig gevaar kan vormen voor de VS. In een toespraak in november 2023 waarschuwde ze dat artificiële intelligentie “het bestaan van de mensheid in gevaar zou kunnen brengen.” Ze vertelde ook tech-managers zoals Satya Nadella van Microsoft, Sam Altman van OpenAI en Sundar Pichai van Alphabet dat ze een “morele” plicht hebben om ervoor te zorgen dat AI veilig is.
Anduril wint contract voor ontwikkeling autonome straaljagers
De luchtmacht opereert met minder piloten dan ooit tevoren in de geschiedenis, maar moet altijd voorbereid zijn op gevechten. Maak kennis met het Collaborative Combat Aircraft (CCA)-initiatief van de luchtmacht, dat Amerikaanse gevechtsvliegtuigen voorziet geflankeerd door een of meer onbemande, autonome vliegtuigen. Een F-35-straaljagerpiloot zou bijvoorbeeld een autonoom dronevliegtuig kunnen gebruiken om vooruit te zoeven en herkenningsinformatie terug te sturen (verzameld met behulp van gespecialiseerde sensoren en camera’s).
Hierdoor kan de 110 miljoen dollar kostende F-35 in veiliger luchtruim blijven hangen. Een andere met munitie beladen drone zou kunnen worden gebruikt om een doelwit te raken, zodat de positie van de F-35 niet wordt onthuld.
Anduril, het defensietechnologiebedrijf dat werd opgericht en gefinancierd door Palmer Luckey, was een van de twee bedrijven die door de luchtmacht werden geselecteerd om prototypes van de drones te bouwen. ( General Atomics was de andere.) Anduril’s Fury- drone lijkt op een grijze haai met vleugels. Hij kan vliegen met een snelheid van bijna Mach-1 en een stress van 9G doorstaan. De Furies worden bestuurd door een artificiële intelligentie-platform genaamd Lattice, dat wordt gedeeld door de straaljager en ondersteunend personeel op de grond of op zee.
Omdat het doel van CCA is om drones te gebruiken als proxy’s voor door mensen bestuurde vliegtuigen, moeten de kosten van de machines laag genoeg zijn om de drones in sommige situaties vervangbaar te maken. Anduril benadrukt dat het waar mogelijk kant-en-klare componenten gebruikt bij het bouwen van zijn apparatuur, evenals beschikbare digitale ontwerp- en testtools, om de kosten van de drones laag te houden.
Het Pentagon werkt nog steeds aan het creëren van een duidelijke definitie van “autonomie” voor AI-drones van alle soorten. De CCA-drones bereiken mogelijk nooit volledige autonomie, vanwege een wet die vereist dat ze altijd moeten reageren op een menselijke operator “binnen de kill chain”. Maar de luchtmacht heeft talloze use cases gerealiseerd die geen volledige autonomie vereisen. Het CCA-programma wordt door velen binnen defensietechnologische kringen gezien als een keerpunt in de manier waarop het Pentagon AI ziet en koopt.