Mythe ontkracht: ChatGPT-verzoek verbruikt minder dan 1 W/h
ChatGPT is een integraal onderdeel geworden van de workflows van veel gebruikers, maar met de populariteit ervan is ook de bezorgdheid over het hoge energieverbruik gegroeid. Een nieuwe studie van Epoch AI weerlegt deze zorgen echter.
Dit is wat we weten
Onderzoeker Joshua Yu berekende dat een enkele vraag aan ChatGPT (gebaseerd op GPT-4o) ongeveer 0,3 W/u verbruikt, wat veel minder is dan eerder werd aangenomen. Ter vergelijking: eerder werd gedacht dat elke chatbotvraag 3 W/u verbruikte, maar deze berekening was gebaseerd op verouderde gegevens en minder efficiënte hardware.
Joshua merkt op dat dit stroomverbruik veel lager is dan dat van de meeste huishoudelijke apparaten. Daarnaast werken techbedrijven actief aan het verbeteren van de energie-efficiëntie van kunstmatige intelligentie. Nieuwe generaties AI-chips worden niet alleen krachtiger, maar verbruiken ook minder energie.
Naarmate AI zich verder ontwikkelt, zal het elektriciteitsverbruik echter nog steeds toenemen. Modellen die zich richten op complexere taken zullen meer rekenkracht vereisen en toekomstige AI-agenten zullen verschillende taken op menselijk niveau kunnen uitvoeren.
Verwacht wordt dat toekomstige AI-agenten in staat zullen zijn om op verschillende gebieden op mensenniveau te werken, wat zal leiden tot een toename van het aantal datacenters en dus een toename van het energieverbruik.
"AI zal zich blijven ontwikkelen en de training ervan zal steeds meer middelen vereisen. In de toekomst zullen deze systemen veel intensiever werken en complexere taken uitvoeren dan nu," concludeerde de wetenschapper.
Bron: Android Headlines