Partnerzy strategiczni
MasterCard Visa BLIK
Partnerzy wspierający
KIR ITCARD Polcard
Partnerzy wspierający
Elavon Hitachi Vivus
Partnerzy wspierający
Pekao Wesub
Partnerzy wspierający
LexisNexis Autopay
Partnerzy merytoryczni
Związek Banków Polskich Polska bezgotówkow
Chatboty, na czele z ChatGPT, za dużo "piją". Jedna rozmowa pochłania półlitrową butelkę wody

O modelach AI było głośno wystarczająco długo, by ktoś przyjrzał się dokładnie ich wpływowi na środowisko

Kilka lat temu na łamach cashless.pl opisywaliśmy, że kopanie kryptowalut pochłania więcej energii elektrycznej niż wynosi roczne zużycie prądu np. w Polsce. Podobne doniesienia pojawiają się obecnie także na temat modeli AI, po które tak często sięgają obecnie fintechy oraz instytucje finansowe.

"Uczenie" sztucznej inteligencji, takiej jak Chat GPT, oraz jej późniejsza praca, również wiąże się ze zużyciem prądu. Im więcej tego prądu powstało np. ze spalania węgla, tym wyższy jest też ślad węglowy modelu. Jak jednak wskazują badacze z dwóch amerykańskich uniwersytetów, kolejnym problemem jest zużycie wody przez modele AI.

Przeczytajcie także: Na koniec maja zaplanowano święto fanów elektromobilności

W opracowaniu "Jak uczynić sztuczną inteligencję mniej "spragnioną": Odkrywanie i rozwiązywanie ukrytego śladu wodnego AI" autorzy wskazują, że jedna rozmowa z chatbotem – w tym wypadku Chat GPT – w której pada od 20 do 50 pytań, wiąże się ze zużyciem 0,5 litra wody. Wyliczono, że tyle płynu potrzeba do chłodzenia serwerów oraz wyprodukowania energii elektrycznej, by Chat GPT mógł odpowiadać jednej osobie.

Wraz z wejściem na rynek nowszej wersji modelu, to zużycie może jeszcze wzrosnąć. Chociaż pół litra wody na pozór wydaje się niewielką ilością, należy pamiętać, że z GPT korzystają już miliony ludzi każdego dnia.

Przeczytajcie także: BNP Paribas umożliwi mierzenie śladu węglowego

Zużycie wody przez centra danych, serwerownie etc. będzie rosło wraz z popularnością modeli AI. Należące do Google'a centra tylko w USA zużywają na chłodzenie 12,7 mld litrów wody, a aż 90 proc. z niej to woda pitna. Rodzi to wiele obaw, zwłaszcza w regionach, które coraz częściej muszą walczyć z suszą.

Model AI od Google, LaMDA, w trakcie nauki ma zdaniem badaczy pochłaniać "oszałamiające" ilości wody, liczone w milionach litrów. GPT-3 miał z kolei pochłonąć 3,5 mln litrów wody, ale tylko w trakcie "nauki", a więc dostosowania go do dalszej pracy, przed udostępnieniem go użytkownikom.

KATEGORIA
CIEKAWOSTKI
UDOSTĘPNIJ TEN ARTYKUŁ

Zapisz się do newslettera

Aby zapisać się do newslettera, należy podać adres e-mail i potwierdzić subskrypcję klikając w link aktywacyjny.

Nasza strona używa plików cookies. Więcej informacji znajdziesz na stronie polityka cookies