🪩 Karta Graficzna Nie Wykorzystuje Swojej Mocy

Kliknij start i wpisz " msconfig " i zatwierdź enterem , w nowym okienku wejdź do zakładki " rozruch " i w " opcje zaawansowane " . Tu zaznacz opcję " pamięć maksymalna " i ustaw pamięć w górę na maksa , odhacz i OK. Zastosuj i zrestartuj system i zobacz jak jest. Dodano po 4 [minuty]: aviva1 napisał: Cześć. Kupiłem od znajomego kartę geforce gt 630 2gb. Po jakimś czasie zauważyłem ze fps'y w CS:GO bardzo wariują. Po wejściu w MSI Afterburner, okazało się, że podczas gry karta chodzi ciagle na taktowaniu wynoszącym dokładnie 405mhz. Zaktualizowałem sterowniki i problem zniknął na kilka minut (chodziło na pełnej mocy 836mhz) ale szybko wrócił. Tak, karta jest podkręcona, ale przed podkreceniem było to samo czyli te 405mhz. Czy ktoś miał podobny problem albo wie jak go rozwiązać? Mam: -płyte Gigabyte (nie wiem jaki model dokładnie) -cpu Athlon II X4 640 -4gb ram ddr3 -zasilacz czarna lista 500w
Оዝе уснЖуհዜչθ ևм
Кለκዚ ипрИ մ
Εհяኑоրա ωք ιчеւолոյеጁጺյቤኝуброкр ዖаቤади
К ከիхօд ጶυրМофиፄէφя ξаցаձеσωժ еլωպаጬաнθ
Karta graficzna do 1000zł na dzień dzisiejszy. A backplate ma plastikowy na 100%. Nawet na techpowerup dodali to jako minus. To sobie ten backplate zdejmij, jak Ci tak przeszkadza. To jest tylko dekoracja, karta nie jest tak ciężka, żeby ten backplate był jej niezbędny.
| autor: Mariusz Ignar | Przeczytasz w 8 minut Zwiększ rozmiar tekstu Do najwaĹźniejszych elementĂłw wpływajÄ cych na wydajność komputerĂłw naleĹźÄ procesory i karty graficzne. Znaczenie karty graficznej wzrasta, zwłaszcza jeĹźeli mĂłwimy o konfiguracji typowo do grania. Warto więc przemyśleć jej wybĂłr i zdecydować się na moĹźliwie najlepszÄ konstrukcję. Niestety, rynek zmienia się w bardzo szybkim tempie, przez co mniej doświadczeni klienci mogÄ mieć problem z opanowaniem podstawowych informacji i wyborem odpowiedniego modelu. Z tego teĹź powodu przygotowaliśmy krĂłtki poradnik, ktĂłry podpowie, jaka karta graficzna z oferty firm AMD i NVIDIA będzie najlepiej odpowiadała na Twoje potrzeby. O tym, jak wybrać kartę graficznÄ do komputera gamingowego dowiesz się z poradnika Jaka karta graficzna do komputera gamingowego? W tym poradniku znajdziesz: Do czego słuĹźy karta graficzna? Jak rozpoznać wydajność i generację kart? Taktowanie rdzenia i pamięci Karta graficzna zintegrowana, czy dedykowana Chłodzenie karty graficznej Jaka karta graficzna do komputera? Jaka karta graficzna do laptopa? Jaka karta graficzna do gier? Do czego słuĹźy karta graficzna, czyli rola karty graficznej Na poczÄ tek warto opowiedzieć o roli karty graficznej w komputerze. Karta odpowiada głównie za generowanie i wyświetlanie obrazu. Warto jednak mieć na uwadze, Ĺźe w przypadku gier proces generowania animacji jest bardziej skomplikowany, więc karta graficzna musi oferować odpowiedniÄ wydajność – zwłaszcza jeĹźeli zaleĹźy nam na obrazie o wysokiej rozdzielczości i szczegółowości. SprawdĹş nasz artykuł Z czego składa się komputer, gdzie znajdziesz więcej informacji na ten temat. To jednak nie koniec, bo karta graficzna moĹźe rĂłwnieĹź wspomagać obliczenia procesora w profesjonalnych zastosowaniach – takich jak renderowanie animacji, obrĂłbka zdjęć, renderowanie i konwertowanie wideo czy archiwizowanie plikĂłw. Programiści wykorzystujÄ biblioteki CUDA i OpenCL, dzięki czemu nawet niedroga karta graficzna pozwala znacznie przyspieszyć wykonywanie zadania. Warto jednak pamiętać, Ĺźe moĹźliwości zaleĹźÄ od konkretnego oprogramowania i tego czy potrafi ono wykorzystać potencjał karty graficznej. Zwykle wykorzystuje się profesjonalne modele z serii AMD Radeon Pro lub Nvidia Quadro. Karta graficzna w komputerze – funkcje: generowanie i wyświetlanie obrazu wspomaganie obliczenia procesora zwiększanie wydajności komputera (przyspieszanie wykonywania zadań) Jak rozpoznać wydajność i generację kart po oznaczeniach? Jak wybrać kartę graficznÄ , jak rozpoznać jej wydajność i generację? Producenci wyszli naprzeciw mniej doświadczonym klientom i wprowadzili stosowne oznaczenia, ktĂłre pozwalajÄ oszacować wydajność i generację danego modelu. Przede wszystkim powinniśmy zwracać uwagę na pierwszy człon liter i cyfr w nazwie danego modelu. Czasami moĹźna rĂłwnieĹź spotkać się z konstrukcjami z edycji specjalnych, gdzie trudniej zidentyfikować ich specyfikację. DominujÄ ce na rynku karty graficzne to karty graficzne AMD i karty graficzne NVIDIA. Karty graficzne AMD Karty graficzne AMD dzielÄ się na: Radeon – modele do podstawowych zastosowań Radeon RX – karta graficzna dla gracza Pierwsza cyfra odpowiada za generację (np. model Radeon RX 6800 XT jest nowszy od Radeon RX 5700 XT), natomiast kolejna za segment wydajnościowy (np. model Radeon RX 6900 jest wydajniejszy od Radeon RX 6800). OprĂłcz tego w ofercie producenta znajdziemy topowe modele ze specjalnych edycji. Zwykle reprezentujÄ one najwyĹźszy segment wydajnościowy, ale czasem trudno na pierwszy rzut oka zidentyfikować do ktĂłrej serii naleĹźÄ . Warto zatem dokładnie zapoznać się z ich specyfikacjÄ . Karty graficzne AMD w sklepie Karty graficzne NVIDIA Karty graficzne NVIDIA – podział: GeForce – najbardziej podstawowe modele GeForce GT – wersje ze średnio-niskiego segmentu GeForce GTX – modele gamingowe dla graczy GeForce RTX – modele gamingowe dla graczy, architektura Turing Pierwsza cyfra oznacza generację karty graficznej (np. karta graficzna Nvidia GeForce RTX 3080 jest nowsza od Nvidia GeForce RTX 2080), a kolejna jego segment wydajnościowy (np. GeForce RTX 3070 jest wydajniejszy od GeForce RTX 3060 Ti). Nowa seria GeForce RTX wyróşnia się dodatkowymi jednostkami RT, ktĂłre odpowiadajÄ za technologię śledzenia promieni w czasie rzeczywistym (Ray-tracing) i jeszcze bardziej realistycznÄ animację. Część modeli dodatkowo oznaczono dopiskiem Ti, co oznacza przyspieszonÄ wersję (np. GeForce RTX 2080 Ti jest wydajniejszy od zwykłego GeForce RTX 2080). Innym oznaczeniem jest dopisek SUPER, ktĂłry takĹźe sugeruje wyĹźszÄ wydajność karty od jej podstawowej wersji (np. GeForce RTX 2070 SUPER jest mocniejszy od GeForce RTX 2070). Karty graficzne NVIDIA w sklepie Taktowanie rdzenia i taktowanie pamięci – jaka karta graficzna? Cechy „taktowanie rdzenia” i „taktowanie pamięci” warto porĂłwnywać głównie przy kartach tej samej serii szukajÄ c modeli „podkręcanych” oferujÄ cych wydajność nieco wyĹźszÄ niĹź standardowe karty. Modele w ktĂłrych producenci zdecydowali się zwiększyć taktowanie rdzenia i pamięci najczęściej majÄ w nazwie produktu dodatkowe oznaczenia typu: OC, Overclocked, Superclocked, lub specjalne nazwy wskazujÄ ce na lepsze parametry karty np: AMP, DC, Lightning. WyĹźsze „taktowanie rdzenia” i „taktowanie pamięci” skutkuje nieco lepszÄ wydajnościÄ w grach. Przy wyborze karty z wyĹźszymi współczynnikami warto zachować rozsÄ dnÄ relację pomiędzy lepszÄ wydajnościÄ , a wyĹźszÄ cenÄ . MoĹźe się okazać, Ĺźe przy tej samej dopłacie moĹźesz juĹź kupić o klasę wyĹźszÄ kartę standardowÄ . Karta graficzna z technologiÄ Turbo lub Boost Wszystkie nowe karty graficzne wykorzystujÄ technologię Boost, ktĂłra przy obciÄ Ĺźeniu automatycznie zwiększa taktowanie rdzenia graficznego, ale konieczne jest do tego zapewnienie odpowiedniego chłodzenia. WyĹźszemu taktowaniu rdzenia i pamięci towarzyszy z reguły wydajniejsze chłodzenie karty, dlatego podkręcane modele bardzo często charakteryzujÄ się większym i efektywniejszym coolerem. Karta graficzna zintegrowana, czy dedykowana? Większość procesorĂłw dysponuje zintegrowanym układem graficznym, co pozwala obniĹźyć cenę komputera oraz jego pobĂłr energii elektrycznej. Zintegrowane układy oferujÄ jednak niĹźszÄ wydajność i przewaĹźnie sprawdzÄ się dobrze w mniej wymagajÄ cych zastosowaniach. RozwiÄ zanie to polecamy do domowych i biurowych komputerĂłw oraz laptopĂłw. Co oznacza, Ĺźe karta graficzna jest dedykowana? Najprościej mĂłwiÄ c jest to osobna karta rozszerzeń, w ktĂłrÄ zostały wyposaĹźone wysokiej jakości komputery i laptopy. MoĹźemy liczyć na duĹźo lepszÄ wydajność, a w przypadku komputerĂłw stacjonarnych rĂłwnieĹź na łatwÄ modernizację. Na ogół takie konstrukcje sÄ juĹź zauwaĹźalnie droĹźsze. Karta graficzna dedykowana to dobra opcja dla graczy i entuzjastĂłw. Jak wybrać kartę graficznÄ do gier? > Chłodzenie karty graficznej A jaka karta graficzna jeśli zaleĹźy nam na cichej pracy komputera? Wybierzemy model karty graficznej wyposaĹźonej w chłodzenie autorskie. Takie modele sÄ nieco droĹźsze, ale charakteryzujÄ się znacznie wyĹźszÄ kulturÄ pracy. KaĹźdy producent kart graficznych posiada swoje autorskie rozwiÄ zania systemu chłodzÄ cego. W kartach graficznych firmy ASUS jest to DirectCU, firma MSI ma Twin Frozr, a firma Gigabyte nazywa swoje chłodzenie Windforce. Warto wybrać chłodzenie autorskie, poniewaĹź róşnica w głośności pomiędzy standardowym coolerem zaprojektowanym przez producenta procesora graficznego (AMD lub NVIDIA) z reguły jest duĹźa. Co to jest chłodzenie wodne karty graficznej? Chłodzenie wodne znajdzie miejsce zarĂłwno w mocnym sprzęcie, w ktĂłrym konwencjonalne wentylatory przestajÄ być wystarczajÄ co wydajne, oraz w komputerach hobbystĂłw podkręcajÄ cych swoje procesory i karty graficzne. System chłodzenia w komputerach znaczÄ co wpływa na ogĂłlnÄ wydajność sprzętu. Więcej o chłodzeniu wodnym przeczytasz w Komputer z chłodzeniem wodnym – dlaczego warto? Komputery z chłodzeniem cieczÄ > Jaka karta graficzna do komputera? W przypadku komputerĂłw stacjonarnych kartę graficzna montujemy w zĹ‚Ä czu PCI-Express x16. RozwiÄ zanie to przekłada się na ogĂłlnÄ kompatybilność i daje moĹźliwość łatwej modernizacji komputera, bo gdy dana karta okaĹźe się zbyt słaba moĹźemy jÄ wymienić na lepszy model. Dodatkowo moĹźemy zdecydować się na poĹ‚Ä czenia kilku kart w trybie Nvidia SLI lub AMD CrossFire. Karta graficzna, zaleĹźnie od jej wydajności, moĹźe wymagać odpowiedniego mocnego zasilacza i dedykowanych kabli zasilajÄ cych. Najczęściej spotykane warianty to: 6 pin – zasilanie z przewodĂłw zakończonego wtyczkÄ 6-pinowÄ , 2x 6-pin – zasilanie z dwĂłch przewodĂłw zakończonych wtyczkÄ 6-pinowÄ , 6+8-pin – zasilanie z dwĂłch przewodĂłw zakończonych wtyczkÄ : 6- i 8-pinowÄ 2x 8-pin – zasilanie z dwĂłch przewodĂłw zakończonych wtyczkÄ 8-pinowÄ . Wydajniejsze modele wymagajÄ podpięcia dodatkowego zasilania, najczęściej 6-pin lub 8-pin – wystarczy zasilacz o mocy od 500 do 600W. W przypadku topowych kart graficznych – 6+8-pin lub 2x 8 pin – zasilacz powinien mieć moc od 600 do 700W. Przed wyborem karty graficznej powinniśmy więc sprawdzić, czy nasz zasilacz oferuje odpowiedniÄ moc i dysponuje wymaganym zestawem zĹ‚Ä czy. SprawdĹş w poradniku Jak wybrać zasilacz komputerowy? Jaka karta graficzna do laptopa? Trochę inaczej wyglÄ da sytuacja w laptopach, bo układ graficzny najczęściej jest umieszczony na płycie głównej lub zamontowany jako specjalna karta rozszerzeń (MXM), co utrudnia lub nawet uniemoĹźliwia ewentualnÄ modernizację. Chłodzenie i dostępne zĹ‚Ä cza zaleĹźÄ natomiast juĹź od konstrukcji danego laptopa. Warto rĂłwnieĹź zwrĂłcić uwagę na wydajność kart dla laptopĂłw. Postęp technologiczny pozwolił opracować nowe, lepsze konstrukcje, dzięki czemu mobilne akceleratory praktycznie dorĂłwnujÄ swoim odpowiednikom dla komputerĂłw stacjonarnych. PrzewaĹźajÄ ca większość gamingowych laptopĂłw wykorzystuje karty z serii NVIDIA GeForce GTX 1000, a w nowszych konstrukcjach mogÄ to być juĹź modele GeForce RTX 2000. Premiera laptopĂłw z kartami GeForce RTX 3000 zaplanowana jest na poczÄ tek 2021 roku. Co jednak, gdy posiadamy kompaktowego laptopa ze zintegrowanÄ grafikÄ , a chcielibyśmy pograć w nowe gry lub wykorzystać akcelerację GPU? RozwiÄ zaniem moĹźe być stacja graficzna – tzw. zewnętrzna karta graficzna – w ktĂłrej montowana jest standardowa karta dla komputera PC, a całość podĹ‚Ä czamy do laptopa za pomocÄ zĹ‚Ä cza Thunderbolt 3 40 Gb/s. Tym sposobem karta graficzna do laptopa moĹźe mieć takÄ samÄ wydajność co najmocniejszy komputer stacjonarny. Jaka karta graficzna do gier? Przy wyborze karty graficznej do grania przede wszystkim powinniśmy zwrĂłcić uwagę na wydajność. Karta graficzna do Fortnite, PlayerUnknown’s Battlegrounds (PUBG) czy CS: GO moĹźe naleĹźeć do podstawowych modeli. Sprawdzi się np. GeForce GTX 1650 lub Radeon RX 570. W przypadku bardziej wymagajÄ cych tytułów, warto zaopatrzyć się w coś wydajniejszego, np. GeForce RTX 2060, Nvidia GeForce RTX 2070 lub AMD Radeon RX 5600 XT czy AMD Radeon RX 5700. Najmocniejsze karty graficzne obecnie to układy z serii GeForce RTX 3000 (np. Nvidia GeForce RTX 3070, NVIDIA GeForce RTX 3080) oraz karty AMD Radeon RX 6000 ( AMD Radeon RX 6900 XT AMD Radeon RX 6800 XT). Karta graficzna MSI GeForce RTX 3090 VENTUS 3X 24GB OC Bardzo waĹźnÄ kwestiÄ jest rĂłwnieĹź typ i pojemność pamięci wideo. Do grania w jakości Full HD wystarczy podstawowy model z 2 lub 4 GB pamięci GDDR5 128-bit, Do wyĹźszych rozdzielczości najlepiej wybrać 4 lub 6 GB pamięci GDDR5 192 lub 256-bit, W przypadku rozdzielczości 4K lub rozgrywki na kilku poĹ‚Ä czonych ekranach, nie obejdzie się bez topowych kart, ktĂłre majÄ co najmniej 8 GB pamięci GDDR5 – GDDR5X 256-bit, 384-bit lub HBM/HBM2 2048-/4096-bit. Zobacz rĂłwnieĹź poradnik JakÄ kartę graficznÄ do komputera gamingowego wybrać? Profesjonalne karty graficzne Karta graficzna jest rĂłwnieĹź waĹźnym elementem stacji roboczych do profesjonalnych zastosowań. Akcelerator graficzny pozwala bowiem odciÄ Ĺźyć procesor i znacznie przyspieszyć wykonywanie niektĂłrych zadań – np. edycję wideo, renderowanie czy modelowanie 3D. Warto jednak zauwaĹźyć, Ĺźe dane oprogramowanie musi być przystosowane do akceleracji GPU. Z myślÄ o takich zastosowaniach przygotowano profesjonalne modele z linii NVIDIA Quadro i AMD Radeon Pro – konstrukcje te świetnie sprawdzÄ się jako karta graficzna do renderowania czy karta graficzna do AutoCAD. Osobnym tematem sÄ karty graficzne do kopania kryptowalut – zwykle oznaczono je dopiskiem Mining lub MI. PrzewaĹźnie sÄ to specjalne przystosowane konstrukcje, ktĂłre zoptymalizowano pod kÄ tem długotrwałej pracy i moĹźliwie niskiej ceny zakupu. Często bazujÄ one na standardowych modelach, ale cechujÄ się mniejszÄ liczbÄ lub w ogĂłle brakiem wyjść wideo. Zwykły model rĂłwnieĹź sprawdzi się jako karta graficzna do kopania kryptowalut. Podsumowanie Rynek kart graficznych jest urozmaicony i bardzo dynamiczny. Przed zakupem nowego modelu, lub nowego komputera i laptopa, warto zrobić rozeznanie aby określić jaka konstrukcja będzie odpowiednia do naszych zastosowań. Pozwoli to nie tylko wybrać moĹźliwie najlepszÄ propozycję, ale teĹź uniknÄ Ä‡ ewentualnych problemĂłw z działaniem sprzętu. Polecane karty graficzne do 1000 zł Polecane karty graficzne do 2000 zł Polecane karty graficzne do 4000 zł Najwydajniejsze karty graficzne powyĹźej 4000 zł MogÄ Cię zainteresować: Jaka karta graficzna do komputera gamingowego? Poradnik Jak testować kartę graficznÄ ? Jaka karta graficzna do 1000 zł? Ranking
2. Ręczna aktualizacja sterowników NVIDIA w systemie Windows 10. Jeśli nasza karta graficzna NVIDIA nas nie wykryje, przystąpimy do aktualizacji sterowników. Krok 1 Najpierw przystąpimy do odinstalowania sterowników. Aby to zrobić, przechodzimy do ikony Windows 10, prawym przyciskiem i klikamy „Ustawienia”. Krok 2 Kliknij opcję Please add exception to AdBlock for If you watch the ads, you support portal and users. Thank you very much for proposing a new subject! After verifying you will receive points! Afcht 09 Mar 2009 20:16 1794 #1 09 Mar 2009 20:16 Afcht Afcht Level 30 #1 09 Mar 2009 20:16 Witam,posiadam kartę ASUS AH3450 ją do oglądania filmów FULL HD. Po zainstalowaniu sterowników jakie producent dołącza do zestawu pojawiają sie problemy: 1 Nie mogę uruchomić ''CCC'' bo wyskakuje błąd ja na foto. 2 Nie da sie oglądać filmów full hd bo sie tną okropnie lepiej działały z kartą Fx5200. 3. W 3D Mark2001 zyskałem nie wiele więcej punktów ale w czasie testowania tnie sie jak głupi po prostu w nie którym miejscach jest pokaz slajdów w Fx przechodziło wszystko płynie. Teraz mam pytanie gdzie mogę znaleść odpowiednie sterowniki żeby to wszystko prawidłowa działo. #2 09 Mar 2009 20:55 Driver- Driver- Level 38 #2 09 Mar 2009 20:55 Stery masz na stronie ASUS'a General Download → Select Product → Graphic Card, Select series → ATI series, Select model → AH3450 → Search. VGA → Download from "Global". Ściągasz, rozpakowujesz i naprzód. #3 09 Mar 2009 22:06 Afcht Afcht Level 30 #3 09 Mar 2009 22:06 Zaraz wypróbuję,mam pytanie co on zrobił w tej grze że mu tak płynie chodzi na HD3450? #4 09 Mar 2009 22:15 jankolo jankolo Meritorious for the #5 09 Mar 2009 23:58 Afcht Afcht Level 30 #5 09 Mar 2009 23:58 jankolo wrote: Niestety wtedy kiedy pisałem post to nie udało się załadować na serwer elektroda więc załodowałem na inny. jankolo- Dobrze wiem jak wkleja się zdjęcia Czy ktoś wie na moje pytanie? #6 10 Mar 2009 00:25 iron64 iron64 Level 41 #6 10 Mar 2009 00:25 Poprzednie sterowniki usunięte i posprzątane po nich? #7 10 Mar 2009 01:55 Afcht Afcht Level 30 #7 10 Mar 2009 01:55 Tak,nawed system nowy postawilem i dalej to samo. Windows xp sp3 #8 10 Mar 2009 13:47 Afcht Afcht Level 30 #8 10 Mar 2009 13:47 Kończą mi sie nerwy nie działają żadne sterowniki wyskakuje mi przy instalacji ''setup did not find a driver compatible with your current hardware or operating system'' co mam robić? #9 10 Mar 2009 14:54 tronics tronics Level 38 #9 10 Mar 2009 14:54 Do kart HD2k/3k na AGP stosuje się hotfixy agp, a nie sterowniki prosto z downloadu. Poszukaj w google ati agp hotfix i znajdziesz odpowiedni plik w supporcie na stronce. Jeśli chodzi o filmy to z tym może być ciężko, zobacz czy z PowerDVD i "używaj akceleracji sprzętowej AVIVO" jest to samo. Problem jest taki ze Laptop korzysta z grafiki Intel zamiast z GeForce. Parametry laptopa to: Intel (R) Core (TM) i3-2350M CUP @ 2.30GHz. RAM: 6GB. 64-bitowy system operacyjny Win7 Professional. Karta graficzna dedykowana: NIVIDA GeForce GT630M. Gdy włączam grę i klikam żeby uruchomił z procesorem graficznym NIVIDA to nic nie daje.
Coraz więcej laptopów, które dostępne są na rynku, wyposażone są w dwie karty graficzne – dedykowaną i zintegrowaną. Rozwiązanie to pozytywnie wpływa na wydajność, którą oferuje sprzęt, a jednocześnie jest niezwykle praktyczne. Jak wybrać jednak z którego GPU chcemy obecnie korzystać?Dwie karty graficzne w laptopie – jak to działa?Czy dwie karty graficzne mają sens?Jak zmienić kartę graficzną w laptopie dla wybranej aplikacji?Przełączanie kart w AMD CatalystPrzełączanie kart w NVidia Control PanelJak ustawić domyślną kartę graficzną Windows 10?Przełączanie kart graficznych w laptopieDwie karty graficzne w laptopie – jak to działa?Podstawową informacją, którą należy wiedzieć o sprzęcie z kartą zintegrowaną i dedykowaną, jest to, że dwie karty graficzne w laptopie nie działają jednocześnie. Karta dedykowana działa jedynie, gdy:Pracujemy z wymagającym dużej mocy oprogramowaniem,Gramy w gry,Oglądamy filmy wysokiej jakości,Zajmujemy się obróbką grafiki,W innych przypadkach komputer wykorzystuje słabszą i mniej energiożerną kartę zintegrowaną. Rozwiązanie to najłatwiej porównać do skrzyni biegów – przyśpieszając, musimy wrzucić w pewnym momencie wyższy bieg, czyli w przypadku sprzętu – przełączyć się na mocniejszą kartę dwie karty graficzne mają sens?Wiele osób zastanawiać się może, po co w sprzęcie przenośnym montować dodatkowe karty graficzne, które zwiększają wagę urządzenia. Powód jest prosty – karta zintegrowana i dedykowana razem w laptopie sprawiają, że urządzenie staje się bardziej uniwersalne i możemy wykorzystać je w kilku różnych zintegrowana będzie przydatna, gdy chcemy pracować, odpisywać na maile lub robić inne proste czynności z daleka od gniazdka, ponieważ pobiera ona znacznie mniej energii, a co za tym idzie, praca na jednym ładowaniu trwać będzie drugiej strony, dzięki dedykowanemu GPU, jeśli mamy ochotę, możemy z laptopa, który ma 2 karty graficzne korzystać jak z domowego centrum rozrywki bez znacznej utraty wydajności w porównaniu do komputera PC. Docenić należy także to, że pracując na karcie zintegrowanej laptop, będzie pracował ciszej, a dodatkowo będzie generował mniejsze temperatury, co może mieć znaczenie dla osób pracujących z laptopem na zmienić kartę graficzną w laptopie dla wybranej aplikacji?Co ciekawe nie jesteśmy zmuszeni do dostosowywania się do automatycznie dobranych przez system ustawień i w razie potrzeby możemy samodzielnie zdecydować, z którego układu chcemy korzystać. Jest to niezwykle proste, ale należy pamiętać, że wybór karty graficznej będzie się różnić zależnie od jej kart w AMD CatalystW przypadku kart AMD musimy uruchomić aplikację producenta – AMD Catalyst Control Center, gdzie następnie przechodzimy do zakładki „Zasilanie”. W menu, które się rozwinie, należy wybrać opcję „Monitor przełączania grafiki dla aplikacji”. W ten sposób pojawi nam się możliwość wybrania tego, która karta graficzna ma być docelowym GPU dla danej aplikacji. Wybór zatwierdzamy przyciskiem „Zastosuj”.Przełączanie kart w NVidia Control PanelPodobnie postąpić należy w przypadku kart wyprodukowanych przez firmę NVIDIA. Uruchomić w tym przypadku należy aplikacje NVIDIA Control Panel. Tam w menu znajdującym się z lewej strony programu wybieramy zakładkę „Manage 3D Settings”, a następnie „Program Settings”. Tam możemy wybrać aplikację z menu rozwijanego i zdecydować czy chcemy, żeby wykorzystywała ona zintegrowaną kartę graficzną, czy kartę NVIDIA o dużej ustawić domyślną kartę graficzną Windows 10?W podobny sposób możemy zdecydować się, która karta graficzna ma być kartą główną. Jak przy wyborze karty dla konkretnej aplikacji ponownie musimy uruchomić program odpowiedzialny za ustawienia karty graficznej. Tym razem w przypadku aplikacji przeznaczonej dla kart AMD należy wybrać zakładkę „Zasilanie”, a następnie „PowerPlay”. W prawej stronie okna aplikacji zobaczymy informacje o tym, która karta graficzna jest podstawowym GPU zależnie od tego, czy laptop podłączony jest do prądu czy też nie. Możemy ustawienie to dowolnie przypadku kart GeForce proces ten jest równie prosty. Ponownie musimy wybrać zakładkę „Manage 3D Settings”, ale w przypadku wybrania karty preferowanej zostajemy w zakładce „Global Settings”, gdzie wyboru karty dokonać możemy w prosty sposób za pomocą rozwijanego kart graficznych w laptopieDwie karty graficzne w laptopie sprawiają, że staje się on urządzeniem wielofunkcyjnym łączącym ze sobą mobilność sprzętu przenośnego, ale także wydajność przeważnie mocniejszych komputerów z normalnymi kartami graficznymi. Obsługa sprzętu wyposażonego w dwa GPU jest niezwykle prosta i w wielu przypadkach nie musimy się nawet zastanawiać, na której karcie graficznej obecnie działamy. Wszystkie decyzje podejmowane są bez naszej wiedzy.
RTX 2050 Max-Q. GTX 1060 Mobile. Graphics 384SP Mobile. GTX 1650 Ti Mobile. GTX 980 Mobile. 2023 Ta lista jest kompilacją prawie wszystkich kart graficznych wydanych w ciągu ostatnich dziesięciu lat. Odejmij zgadywankę od decyzji o zakupie nowej karty graficznej. Na tej porównawczej liście porównawczej GPU oceniamy wszystkie karty
Nowe karty graficzne Intel Arc mogą stanowić realną konkurencję dla produktów Nvidii i AMD. Wszyscy oczekujemy premiery nowych układów, która nastąpi już niedługo - na początku 2022. Z tego względu postanowiliśmy zebrać wszystko, co do tej pory już wiemy. [Aktualizacja Intel, udostępnił na swoim kanale na platformie YouTube kolejny film prezentujący możliwości nadchodzących kart graficznych Arc. Po raz kolejny niebiescy prezentują wydajność modelu A750 w wersji Limited Edition. Po raz kolejny w rolę prezentera został postawiony Ryan Shrout, o którym to wspominaliśmy przy ostatnich aktualizacjach. Ryan twierdzi, że wszystkie karty graficzne Intel Arc, w tym i testowany egzemplarz, będą obsługiwać VRR (zmienna częstotliwość odświeżania) zgodnie z oficjalnym standardem VESA. Dodatkowo układy maja obsługiwać technologię Adaptive Sync która zapewnia płynną liczbę klatek na sekundę, synchronizując częstotliwość odświeżania monitora z generowanymi FPS. Podczas prezentacji wykorzystano grę Death Stranding Directors Cut, która działa w 80-100 FPS w rozdzielczości 2560 x 1440 (dla VRR) badź 3440x1440 (przy testach HDR). Zobacz również:Najlepsze antywirusy na Maca [RANKING 2022]Intel Optane przechodzi do historii. To koniec markiArc A380 przetestowany. Intel proponuje coś dziwnego Na koniec otrzymaliśmy informacje na temat złącza HDMI w kartach Intel Arc. Ryan twierdzi, że wszystkie układy Arc dla komputerów stacjonarnych jak i laptopów obsługują standard HDMI Jednak aby uzyskać dostęp do HDMI partnerzy mogą zintegrować układ PCON i przekonwertować wyjście DisplayPort na HDMI Obie karty graficzne Intel Arc A770 i Arc A750 Limited Edition obsługują standard HDMI dzięki temu rozwiązaniu. [Aktualizacja Co by nie mówić ostatni tydzień należał do Intela i układów ARC. Niebiescy widać starają się poprawić swój wizerunek, nadszarpnięty przez opóźnienie premiery dedykowanych kart graficznych, czy okrojoną premierę na rynku OEM w Chinach. Już na początku tygodnia Tom Petersen i Ryan Shrout, zaprezentowali działająca kartę Intel ARC A750, na kanale GamerNexus. Dodatkowo udzielili sporo dodatkowych informacji o budowie, wydajności układów ARC Alchemist. Fot. GamerNexus Fot. GamerNexus Niedługo później na platformie Youtube został umieszczony już oficjalna prezentacja karty A750, bezpośrednio na kanale Intela. Nadchodząca karta graficzna powinna osiągnąć w większości tytułów wydajność przewyższającą GeForca RTX 3060. co prawda niebiescy ograniczyli się do prezentacji wyników tylko z 5 tytułów takich jak F1 2021, Cyberpunk 2077, Control, Borderlands i Fortnite w rozdzielczości 2560x1440. Nie trudno odnieść wrażenia że dużo jednak zależy od ustawień, ponieważ w samym teście w Cyberpunk 2077, gra była testowana na detalach wysokich z wyłączonym Ray Tracingiem. Jakby tego było mało Tom Petersen i Ryan Shrout, w piątkowy wieczór gościli również podczas podcastu The Wan Show na kanale LinusTechTips. Podczas audycji po raz pierwszy została zaprezentowana karta graficzna ARC A770. Ten topowy model dla serii Alchemist podobnie jak model A750, został wyposażony w dwie wtyczki zasilające 8-pinowa i 6-pinową. Za chłodzenie modelu odpowiadają tylko dwa wentylatory. Niestety, nie została ujawniona specyfikacja karty. Jednak według wcześniejszych doniesień model ten powinien otrzymać 32 rdzenie XE oraz 16 GB pamięci GDDR6. fot. LinusTechTips fot. LinusTechTips Jednak dla nas najważniejsza jest deklaracja, która złożyli obaj wyżej wymienieni pracownicy Intela, że premiera kart graficznych Intel Arc nastąpi szybciej niż się spodziewamy. Cóż pozostaje trzymać za to kciuki [Aktualizacja Choć premiera układów Intel Arc Alchemist miała miejsce w ubiegły czwartek dopiero dziś zeszło embargo na recenzje tych jednostek. Pamiętajmy jednak że debiut układów niebieskich nastąpił tylko na rynku chińskich, oraz dotyczy jedynie modelu A380. Pierwsze recenzje skupiają się na modelu A380 Photon od GUNNIR, który jest partnerem Intela na azjatyckim runku, oraz jest jak dotąd jest jedyną autorską konstrukcją opartą na tym procesorze graficznym. Pierwsze wyniki dostarczył Shenmedounengce, który przetestował kartę na systemie opartym o procesor Intel Core i5-12400, płytą główną B660 i pamięcią DDR4. Karta została porównana z kartami graficznymi NVIDIA RTX 3050, GTX 1650 i AMD RX 6500XT oraz RX 6400. fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) A380 oferuje pełny procesor graficzny ACM-G11 z 8 rdzeniami Xe oraz 6 GB pamięci GDDR6 komunikującej się poprzez 96-bitową magistralę . Taktowania rdzenia wynosi nawet 2,45 GHz (w trybie boost), a pamięć została skonfigurowana by osiągać przepustowość 15,5 Gbps. fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) W testach syntetycznych 3DMark, układ intela jest szybszy od kart graficznych posiadających 4 GB pamięci VRAM, przegrywając tylko z RTX 3050. Dużo gorzej wygląda sytuacja gdy weźmiemy pod uwagę gry. Autor sprawdził układ w takich tytułach jak League of Legends, PUBG, GTA5, Tom Raider, Forza Horizon 5 i Red Dead Redemption II. Niestety, w tym przypadku A380 przegrywa nawet z Radeonem RX 6400 czy GTX 1650. Kolejne wyniki pochodzą z kanału Benchmark Lab, który udostępnił krótka video prezentację zarówno na portalu Bilibili jak i na Youtube. Testowa konfiguracja wykorzystywała 10-rdzeniowy procesor Intela Core i9-10900K oraz 32 GB pamięci DDR4. W tym przypadku karta Arc A380, była szybsza od GTX 1650 produkcji MSI w każdym testowanym tytule. Jak widać dużo w tym momencie zależy jak widać od ustawień oraz konfiguracji całego zestawu. Gra Achlemist A380 MSI GTX 1650 Elden Ring ust, śred, 43 40 Microsfot Flight Simulator ust, śred, 46 40 Wiedzin 3 ust, wysokie 75 65 World of Warcraft ust, max 73 70 CP2077 ust, niskie 45 41 Hitman 3 ust, śred 58 51 Read Dead Redemtion ust, śred, 56 49 God of War ust, śred, 63 56 Fortnite ust wysokie 71 65 Horizon zero dawn, ust, oryg, 56 51 Dane prezentowane w tabeli na podstawie wyników uzyskanych przez Benchmark Lab O sukcesie układów A380 zdecyduje i tak cena. Mimo że sugerowana przez Intela ma wynosić 1030 Juanów (ok. 700zł), to wstępne informacje wskazują, że będzie ostatecznie sporo wyższa. [Aktualizacja Intel ogłosił, że technologia XeSS nie zadebiutuje z mobilnymi procesorami graficznymi z serii Arc 3, które zostały wprowadzone na rynek 30 marca, ale zamiast tego wraz z seriami Arc 5 i Arc 7. Te powinny zadebiutować na początku lata (przełom maja i czerwca). Ogłoszono że w dniu premiery wsparcie otrzyma kilka tytułów AAA i zostaną one zoptymalizowane pod kątem lista gier prezentuje się następująco:„Ghostwire: Tokyo”, „Death Stranding”, „Anvil”, „Hitman III”, „GRID Legends”. Jak już wspominaliśmy w tym artykule, w przeciwieństwie do rozwiązania FSR od AMD - Intel w XeSS wykorzystuje głębokie uczenie wspieranie przez sztuczną inteligencję. Ma to umożliwić przywrócenie szczegółów w przeskalowanym obrazie gry, która jest renderowana w rozdzielczości niższej niż ta, do której jest zdolny Twój wyświetlacz. W tym celu wykorzystywane są rdzenie XMX (Xe Matrix Extensions) w układzie krzemowym,odpowiedzialnym za przyspieszanie tworzenia i trenowania sieci neuronowych w ramach głębokiego uczenia. W architekturze Xe HPG każdy rdzeń Xe otrzymuje dedykowaną jednostkę XMX — i mimo innej budowy ich działanie można porównać do rdzeni Tensor w procesorach graficznych NVIDIA RTX. [Aktualizacja Według kanału Moore's Law Is Dead, Intel przesunie premierę nowej linii dedykowanych procesorów graficznych Arc Alchemist na drugi kwartał tego roku. Pierwotny harmonogram zakładał wypuszczenie układów w pierwszej połowie 2022 roku, a za możliwą datę podawano przełom marca i kwietnia. Intel planuje opóźnić wydanie linii Arc Alchemist Graphics na drugą połowę roku, ponieważ chce dopracować swoje sterowniki. zdj. MLID/Youtube [Aktualizacja W bazie benchmarku CrossMark użytkowanik APISAK znalazł wyniki osiągnięte na laptopie wyposażonym w układ graniczny Intel Arc A370M Graphics, a swoim odkryciem podzielił się na portalu Twitter. Oprogramowanie firmy BAPCo umożliwia testowanie sprzętu niezależnie od posiadanej platformy czy systemu operacyjnego (dostępne wersje na Windows, iOS or macOS i nawet Android) i w łatwy sposób na ich porównanie. zdj. BAPCo || Twitter:APISAK Choć na podstawie osiągniętego rezultatu ciężko wskazać jak w grach spisze się układ graficzny Intela, to potwierdza, że dane chipy znajdują się już producentów i trwają już wewnętrzne testy. Wydajność konstrukcji w całości opartej o produkty Intela wypada, identycznie jak laptopa wyposażonego w układ graficzny Nvidii RTX 3060 oraz procesor i7 12 generacji. Jest to dobra wiadomość, biorąc pod uwagę, że sterownik dla platformy ARC, wciąż znajdują się w fazie testów. Według wcześniejszych doniesień premiery Inte Arc dla urządzeń mobilnych możemy spodziewać się w drugiej połowie tego roku. [Aktualizacja Użytkownik 9550pro, na swoim profilu na portalu Twitter, udostępnił slajd przedstawiający plany Intela dotyczące procesorów graficznych DG2 do laptopów. Na slajdzie zatytułowanym „Konfiguracja pamięci graficznej DG2” możemy zauważyć aż pięć różnych modeli układów przeznaczonych do laptopów. @9550pro Topowym modelem pozostaje SKU1 z 512 jednostkami wykonawczymi(EU), który zostanie sparowany z ośmioma modułami pamięci GDDR6 o łącznej pojemności 16 GB. Ta miałaby komunikować się z rdzeniem przez 256-bitową szynę z prędkością 16 Gb/s (pełna przepustowość 512 GB/s). Warto zaznaczyć że użyte moduły GDDR6 są identyczne jak mającym niedługo zadebiutować mobilnym wariancie RTX 3080 TI. Co więcej, w końcu mamy potwierdzenie słabszej wersji układu wyposażonej w 384 EU o nazwie SKU2. Ten wariant ma zostać wyposażony w 12 GB pamięci GDDR6 oraz 192-bitową szynę pamięci. Moduły zachowałyby taką samą prędkość jak w topowym modelu, co przełożyłoby się na maksymalną przepustowość wynoszącą 384 GB/s. Intel ARC Mobile „SKU3” to model oparty na 256EU z 8 GB pamięci GDDR6 i 128-bitową magistralą pamięci. Miałby również zostać wyposażony w pamięć o prędkości 16 Gb/s, co oznaczałoby , że przepustowość wynosiłaby do 256 GB/s. Wreszcie, SKU4 i SKU5, oparte na GPU DG2-128EU, oba wyposażone w 4 GB pamięci GDDR6 i 64-bitową magistralę. Prędkość pamięci byłaby ograniczona do 14 Gb/s, co oznacza, że maksymalna przepustowość osiągnęłaby 112 GB/s. Slajd ten poniekąd potwierdza możliwe konfiguracje układów Intel ARC Alchemist. Mimo że dotyczy wersji mobilnych, nie jest powiedziana że podobnych wariantów nie doczekamy się również przeznaczonych dla komputerów stacjonarnych. Wszystko wskazuje że w przypadku laptopów nie doczekamy się wariantu wyposażonego w 448 EU. [Aktualizacja Jak się okazuje, udostępniony niedawno sterownik testowy który Intel przypadkowo opublikował na oficjalnej stronie internetowej, zawiera więcej informacji niż można było przypuszczać. Zawiera on nie tylko identyfikatory niewydanego sprzętu. Jak podają redaktorzy serwisu VideoCardz, którzy otrzymali anonimową wskazówkę, pliki SYS ujawniają nazwy niepublikowanych procesorów graficznych Intel Xe-HPG, znanych jako Arc Alchemist. Sterownik zawiera dane dotyczące 4 modeli, w tym dwóch do komputerów stacjonarnych i kolejnych dwóch do urządzeń mobilnych: Intel Arc A380. Intel Arc A350. Intel Arc A370M. Intel Arc A350M. Prawdopodobnie po raz pierwszy dowiadujemy się rzeczywistych nazw nadchodzących kart graficznych od Intela, a informacje te pochodzą bezpośrednio od producenta. zdjęcie rdzeni DG2 udostępnione przez Moore’s Law is Dead Najprawdopodobniej nie jest to pełna lista modeli planowanych w serii Arc Alchemist. Poprzednie przecieki sugerowały, że może istnieć aż 5 różnych wariantów procesorów graficznych DG2, różniących się liczbą rdzeni i konfiguracją pamięci. Układy Arc A380 bazujące na rdzeniu DG2-128EU mają rzekomo oferować wydajność GeForce GTX 1650 SUPER przy taktowaniu 2,45 GHz. Model miałby być wyposażony w 6 GB pamięci GDDR6, więc prawdopodobnie nie jest to flagowa konstrukcja, która podobno ma być wyposażona w 16 GB. Karta A350 może być najtańszą konstrukcją Intela przeznaczoną do komputerów biurowych czy stacji roboczych. Model ten może oferować 96 EU i 4 GB pamięci GDDR6. Można by się domyślać, że A3XX powinien być wydajnościowym odpowiednikiem CPU Core i3. Możliwe, że planowane są również mocniejsze warianty jak A5XX, A7XX i A9XX. [Aktualizacja Intel za pomocą swojego konta na Twitterze udostępnił grafikę, na podstawie której mamy odgadnąć nazwę piątej generacji układów Alchemist. Tak mocno wybiegające w przyszłość plany świadczą o tym jak mocno firma wierzy w nowy produkt. Jak myślicie, biorąc pod uwagę nazewnictwo pochodzące z fantastyki, jak będzie nazywał się nadchodzący układ niebieskich? You’ve heard the codenames Alchemist, Battlemage, Celestial, and Druid, but what about E? What do YOU think it could be? #IntelArc Intel Graphics (@IntelGraphics) October 19, 2021 Czy Układy Arc będą “kopać” kryptowaluty ? Przy obecnych niedoborach GPU po stronie AMD i Nvidii, napędzanych częściowo przez górników kryptowalut, ludzie chcą wiedzieć, czy procesory graficzne Arc Intela napotkają podobne trudności. Biorąc pod uwagę korzenie architektury Xe HP/HPC w centrach danych (uczenie maszynowe, obliczenia o wysokiej wydajności itp.), Intel prawdopodobnie przynajmniej przyjrzał się możliwościom kart przy wydobyciu kryptowalut. Publicznie Intel dopiero ostatnio ogłosił, że nie zamierza blokować żadnych dodatkowych algorytmów. Sława te padły od Raja Koduri, głównego architekta układów graficznych niebieskich, w udzielonym ostatnio wywiadzie. Ogólnie rzecz biorąc, Xe może dobrze radzić sobie w “kopaniu”. Jednak nie moc samego układu jest w tym wypadku najważniejsza, ponieważ najpopularniejsze algorytmy wykorzystywane do wydobycia za pomocą GPU (głównie Ethash, ale także Octopus i Kawpow) swoją wydajność opierają się prawie wyłącznie na przepustowości pamięci. Na przykład najszybsze procesory graficzne Intel Arc prawdopodobnie będą korzystać z 16 GB (może 8 GB) pamięci GDDR6 z 256-bitowym interfejsem. Dałoby to podobną przepustowość jak w przypadku AMD RX 6800/6800 XT/6900 XT, a także Nvidii RTX 3060 Ti/3070. To z kolei doprowadziłoby do wydajności około 60 MH/s przy wydobyciu Ethereum. Intel prawdopodobnie nie zamierza używać szybszych ale i dużo droższych modułów GDDR6X. Nie jest jednak wykluczone, że układy ARC mogą mieć też inne funkcje, które zwiększą wydajność kopania. Karty Nvidii posiadają pamięć taktowaną 14 Gbps w RTX 3060 Ti i RTX 3070, i dzięki czemu (zanim pojawiły się modele LHR) potrafiły osiągnąć około 61-62 MH/s. AMD ma szybszą pamięć 16 Gbps, a po dostrojeniu parametrów osiągamy 65 MH/s. Realistycznie rzecz biorąc, możemy się spodziewać, że mniej więcej taki poziom osiągnie najszybszy GPU Arc. Biorąc pod uwagę, niestabilność na rynku kryptowalut oraz fakt że procesory graficzne Arc nie pojawią się nawet na początku 2022 r.,jest mało prawdopodobne, aby wydajność kopania była nadrzędnym priorytetem dla Intela w fazie projektowania układów. Ethereum jest obecnie zdecydowanie najbardziej opłacalną “monetą” do kopania z wykorzystaniem GPU. Przyjmuje się, że reprezentuje ona ponad 90% mocy GPU wykorzystywanych do kopania na świecie. W Ethereum nastąpi zmiana schematu działania. Z “dowodu pracy” (ang. Proof of Work), system przejdzie na dowód stawki (ang. Proof of Stake). Oznacza, że nie będzie już więcej możliwości wydobywania waluty z wykorzystaniem GPU. W tym wypadku budowanie GPU wokół wydobywania Ethereum byłoby złym pomysłem. W najlepszym (lub najgorszym przypadku, w zależności od perspektywy), przewidujemy, że wydajność kopania będzie z grubsza dorównywać procesorom graficznym AMD Navi 21 i Nvidia GA104. Oprogramowanie do wydobywania prawdopodobnie będzie jednak wymagało poważnych aktualizacji i poprawek sterowników, aby nawet działać poprawnie na przyszłych procesorach graficznych. Dla przykładu próby wydobycia za pomocą układu Xe DG1 kończą się niepowodzeniem. Większość oprogramowania nawet nie wykryła „zgodnego” procesora graficznego. W momencie premiery spodziewałbym się, że procesory graficzne Arc będą w podobnej sytuacji, ale będziemy musieli zobaczyć, jak sprawy ukształtują się z biegiem czasu. [Aktualizacja Po raz kolejny nowymi informacjami o kartach graficznych Intel podzielił się kanał Moore’s Law is Dead . W udostępnionym na platformie Youtube filmie zostały zaprezentowane nowe rendery prezentujące wygląd układów Arc. Referencyjna konstrukcja posiadałaby by dwa delikatnie podświetlone wentylatory oraz wzorem RTX 3000, koniec radiatora zapewniałby bezpośredni przepływ powietrza. Do zasilania będziemy potrzebować dwóch przewodów 8-pin oraz 6-pin. Taka konfiguracja pozwoliłaby na dostarczenie 225 W mocy (300 W licząc złącze PCIe) dla karty. zdj. MLID zdj. MLID zdj. MLID zdj. MLID Choć autor w filmie wspomina, że premiera układów Arc Alchemist może nastąpić w pierwszym kwartale 2022 roku, to dotyczyć ma ona układów mobilnych, a na wersje do komputerów osobistych będziemy musieli poczekać do drugiego kwartału. Jednak według Greymon55 jest to trochę za późno i premiery należało by oczekiwać wcześniej. Q2....I feel a little late.— Greymon55 (@greymon55) October 2, 2021 Wciąż nie mamy informacji jak będą nazywać się najwydajniejsze układu Alder Lake. Najnowsze doniesienia zakładają przyjęcie przez Intela jednego z dwóch schematów. Arc a512 bądź Arc a700, obie nazwy dotyczyły by tego samego układu DG2-512 GPU, ale to właśnie 2gi wariant miałby wskazywać bezpośrednią konkurencję w postaci RTX 3070, RX 6700 XT. [Aktualizacja Dzięki wywiadowi, który udzielił Raja Koduri japońskiemu serwisowi ASCII, dowiedzieliśmy się, że Intel współpracuje już z firmami zewnętrznymi w celu przygotowania nowych kart Alchemist dostępnych na premierę. Na chwilę obecną mamy potwierdzenie, że swoje wersje opracowuje ASUS, Gigabyte oraz MSI choć można się spodziewać, że do tego grona dołączą również i inni producenci. Dzięki kanałowi Moore’s Law is Dead na platformie YouTube dowiedzieliśmy się, że Intel może wypuścić aż trzy modele układów Achemist. Najmocniejszy którego wydajność miała by dorównywać RTX 3070 dysponowałby 512 rdzeniami EU pracującymi z częstotliwością powyżej 2,2 GHz oraz byłby wyposażony w 16 GB pamięci GDRR6 komunikujących się poprzez 256-bitową szynę. Drugi model miałby konkurować z RTX 3060 i dysponowałby 384 bądź 448 rdzeniami EU. Karta ta pozostaje wciąż w fazie testów i jej specyfikacja nie jest do końca określona. Intel przygotowuje również wersję budżetową kart Alchemist. Ten dysponujący 128 rdzeniami EU i pobierający zaledwie 75 W układ miałaby konkurować z GTX 1650 Super. Choć w filmie autor wspomina o wariantach 4 bądź 8 GB to na portalu Chiphell pojawiły się mocno zamazane zdjęcia pokazujące wersję wyposażoną w 6 GB pamięci. Poznaliśmy też specyfikacje nazewnictwa oraz wytyczne do których muszą stosować się producenci przy umieszczaniu informacji na opakowaniu produktu. Dzięki temu wiemy, że wszystkie układy należące do rodziny Alchemist będą nosiły nazwę Arc a#. Można przypuszczać, że Intel zostanie przy tym nazewnictwie dla wszystkich swoich kart graficznych, co na pewno ułatwi ich identyfikację. Idąc tym tropem następcy oparci na rdzeniach Battlemange nosiliby oznaczenie b#, Celestial c# oraz Druid d#. Prawdopodobnie numer modelu będzie odnosił się do ilości rdzeni EU. Karty graficzne Intel Arc – wszystko, co już wiemy Intel Arc, nowa marka na rynku kart graficznych, która ma konkurować z rozwiązaniami dostarczanymi przez Nvidia i AMD. Wszystkie szczegóły o nadchodzących układach oraz czego można się po nich spodziewać dowiedzieliśmy się za pomocą udostępnionego na stronie filmu z zapowiedzią. Nie została zorganizowana huczna konferencja jak ma to w sowim zwyczaju robić konkurencja. Pytanie brzmi, czego powinniśmy oczekiwać od tego giganta technologicznego? Czy naprawdę będzie w stanie konkurować z niezwykle popularnymi i wydajnymi kartami Nvidia serii RTX 3000 i AMD Radeon’ami RX 6000? Postanowiliśmy podsumować wszystkie najnowsze plotki i oficjalne doniesienia o układach Intel Arc. Co to jest Intel Arc? Intel Arc to nowa marka kart graficznych oraz technologii związanych generowaniem obrazu od Intela. Jak twierdzi producent, obejmie ona wiele generacji i to nie tylko sprzętu, ale także oprogramowania i usług. Intel nie podał jeszcze wszystkich szczegółów i nie wiemy dokładnie co to może oznaczać. Prawdopodobnie mogą to być rozwiązania zbliżone do tych oferowanych przez Nvidię, która nie tylko produkuje karty graficzne, ale także oprogramowanie. Usługi takie jak Nvidia Broadcast, które wykorzystuje możliwości kart graficznych czy oparty na chmurze serwis gamingowy GeForce Now to tylko dwa z licznych przykładów. Karty graficzne Intela maja obsługiwać zaawansowane funkcje , takie jak cieniowanie siatkowe, ray tracing w czasie rzeczywistym, supersampling AI i skalowanie wideo 4K. Podczas prezentacji Intel Arc, wiceprezes Roger Chandler, opisywał, „głębokie i ciągłe zaangażowanie firmy Intel na rzecz graczy i twórców na całym świecie” oraz, że zespół ciężko pracował, aby „zapewnić pierwszorzędne i bezproblemowe wrażenia, gdy produkty będą już dostępne ”. Pierwsze karty graficzne, które zostaną wydane, będą nosić nazwę kodową Alchemist, ale Intel już wyjawił też nazwy kolejnych generacji – w tym Battlemage, Celestial i Druid. Pojawią się one później, ale narrację Intela należy interpretować jako wieloletni (i prawdopodobnie wielopokoleniowy) plan rozwoju dla rynku GPU. Kiedy zostanie wydany pierwszy procesor graficzny Intel Arc? Podczas gdy Intel nie określił jeszcze potencjalnej daty premiery, jeden z przecieków w serwisie Weibo zasugerował, że układy zadebiutują podczas targów CES 2022 w styczniu. Źródło podawało, że informację uzyskało od osób z branży, zaangażowanych w produkcje. Miało to miejsce jeszcze przed oficjalnym ogłoszeniem i prezentacją Intel Arc. Zestawiając tą informację z otrzymaną datą przypadającą na pierwszy kwartał 2022, można przypuszczać, że jest ona prawdziwa. Oczywiste jest to, że nawet jeżeli karty zostaną zaprezentowane podczas targów, mogą od razu nie trafić na rynek do sprzedaży. Więcej informacji powinniśmy także otrzymać po premierze 12 generacji procesorów Core – Alder Lake. Ile będzie kosztował procesor graficzny Intel Arc? W tej chwili jest prawie niemożliwe aby przewidzieć cenę nowych urządzeń. Jest to pierwszy od dawna procesor graficzny od Intel'a ( i740 miał premierę w 1998 roku) . Z tego względu nie mamy żadnych cen, które stanowiły by punkt odniesienia. Także rynek kart graficznych jest obecnie w chaosie. Ciągły niedobór komponentów używanych przez producentów układów oznacza, że zapasy są ograniczone, a ich ceny zawyżone w porównaniu z tymi sugerowanymi przez producenta. Dobrym przykładem tutaj niech będzie RTX 3070 Nvidii czy RX 6700 XT od AMD. Obie karty, które powinny konkurować ze sobą przedziale cenowym ok. 2300 zł, w sklepach sprzedawane są w dwukrotnie wyższej cenie wynoszącej nawet 5000 zł. Jeśli Intelowi uda się w jakiś sposób obejść niedobory i przygotować wystarczającą ilość zapasów do wprowadzenia na początku przyszłego roku, będzie miał okazję do zyskania sporej części rynku dla siebie. W chwili obecnej wszystkie karty graficzne, nie zależnie od ceny wyprzedają się bardzo szybko, a niektórzy na swoje zamówienia czekają nawet po kilka miesięcy. Pojawienie się wydajnej konkurencji dostępnej w przystępnej cenie może skłonić część konsumentów do zmiany decyzji. Cóż na razie pozostaje nam czekać i trzymać kciuki. Czego można oczekiwać od karty graficznej Intel Arc Chociaż Intel potwierdził istnienie marki Intel Arc, i poinformował, że pracuje nad kilkoma procesorami graficznymi pod różnymi nazwami kodowymi, nie wiemy zbyt wiele o tym, co sobą zaoferują. Karty Intel Arc będą bazować na poprawionej mikroarchitekturze Xe-HPG, która według niebieskich powinna pomóc w bardziej wydajnym obliczaniu zaawansowanych funkcji graficznych, jak supersampling oparty na sztucznej inteligencji. Karty z serii Alchemist znane także pod nazwą Intel DG2 zbudowane są z rdzeni Xe. Każdy z nich zawiera 16 jednostek wektorujących (Vector Engine w skrócie VE - 256 bitowych) oraz 16 jednostek obliczeniowych macierzy (Matrix Engine w skrócie ME- każdy po 1024 bit). Każdy z nich wyposażony jest także w pojedynczy układ wspierający obliczenia związane ze śledzeniem promieni (Ray Tracing Unit), a ich ilość w całej karcie będzie zależała od tego z ilu rdzeni Xe składa się rdzeń. Pozwoli to na łatwą identyfikację gdy karty trafią już do sklepów. Blok składający się z 4 rdzeni Xe nazywany jest klastrem renderującym (Render Slice). Wymiana danych między nimi następuje za pomocą szyny Memory Fabric (odpowiednik pamięci cache L2). Para jednostek VE i ME często jest określana jako Execution Unit (w skrócie EU). W prezentacji Intel Architecture Day został zaprezentowany układ składający się z 8 bloków RS wyposażony w 512 EU przeznaczonych dla kart graficznych oraz jednostkę składającą się nawet 128 zmodyfikowanych rdzeni Xe - Ponte Vecchio. Jednak jest on przeznaczony do serwerów i centrów obliczeniowych. Udowadnia to jednak jaką swobodę posiada Intel w tworzeniu układów, które zapewniają odpowiednią wydajność dla każdego. Co ciekawe niebiescy nie zdecydowali się na możliwość zablokowania podkręcania układu, a funkcja ta będzie dostępna od daty premiery. Niestety do tej pory nie podzielono się z nami oficjalną prezentacją mocy obliczeniowej układów. Niektóre plotki wskazują, że najmocniejsza karta Intela ma oferować wydajność zbliżoną do RTX 3070. DG2's official competitors are 6700xt and 3070. Not bad.????— Greymon55 (@greymon55) September 7, 2021 I choć może się wydać, że jest to za mało to należy pamiętać, że to pierwsza dedykowana konstrukcja Intela od wielu lat. Wspominaliśmy wcześniej, że architektura ta pozwala łatwe skalowanie układów. I choć z marketingowego punktu widzenia posiadanie najmocniejszej karty graficznej może wydać się sensowne, to ostatnimi laty najczęściej przecież sprzedają się układy oferujące dobry stosunek wydajności do ceny i zapewne w to celuje Intel. Nigdy nie wiadomo czy w późniejszym terminie nie otrzymamy mocniejszych konstrukcji. Intel nie zdecydował się na produkcję układów w swoich fabrykach. Wszystkie karty z rodziny Alchemist będą produkowane w zakładach TSMC z wykorzystaniem 6 nm procesu litograficznego. Intel XeSS Jak już wspominaliśmy wcześniej nowe karty będą obsługiwać Super Sampling. Technologia mocno zbliżona do rozwiązania stosowanego przez Nvidię w DLSS. Umożliwia generowanie obrazu w niższej rozdzielczości i podbicie jego jakości do wyższej dzięki wykorzystaniu sieci neuronowych. Trochę więcej szczegółów na temat XeSS udzielił Karthik Vaidyanathan, główny inżynier Intela dla tej technologii w wywiadzie dla serwisu Wccftech. Przede wszystkim warto zaznaczyć, że gry wspierające rozwiązanie Intela nie będą musiały przechodzić specjalnego “treningu” z aplikacją. Z takiego rozwiązania korzysta właśnie Nvidia przy DLSS, aby gra mogła wspierać tą technologie. Wpierw musi zostać wygenerowany obraz o rozdzielczości 16K i jest on przepuszczany przez ciąg algorytmów wykorzystujących uczenie maszynowe. Dopiero po zakończeniu tego procesu rdzenie tensor w kartach Nvidii są wstanie upscalować obraz w celu uzyskania porównywalnej jakości jak przy natywnym renderowaniu. W przypadku Intela algorytm uczy się na obrazach referencyjnych z wykorzystaniem z 64 próbek na 1 pixel, w celu uzyskania jakości obrazu 64X SSAA. Intel opracowując XeSS przygotował dwa warianty: pierwszy oparty na akceleracji XMX, dostępny wyłącznie dla procesorów graficznych Intel Arc. Drugi bazujący na obliczeniach DP4a, czyli specjalnej akceleracji dot product obsługiwanej przez procesory graficzne obsługujących Microsoft Shader Model Dzięki temu możliwe będzie odpalenie XeSS także na kartach Nvidii z rdzeniami Pascal i Turing (GTX 1000 oraz RTX 2000) i AMD opartych na architekturze RDNA 1 i 2 (RX 5000 i RX 6000). Rozwiązanie DP4a jest wolniejsze od akceleracji XMX, ale i tak zapewnia szybsze generowanie klatek w porównaniu do klasycznego renderowania w natywnej rozdzielczości. To dobra wiadomość dla nas wyrzyskich, ponieważ podobnie jak AMD z FSR, XeSS nie będzie zamkniętym rozwiązaniem tylko dla jednego producenta. Oficjalnie jednak AMD nie potwierdziło publicznie chęci obsługi tej technologii. Wspomniane wcześniej API nie wymaga także osobnego programowania dla obu wariantów, a rozwiązanie XeSS jest wypełni integralne i nie tworzy osobnych interfejsów. Po zaimplementowaniu tego rozwiązania w grze dostaniemy także wybór trybu pracy, podobnie jak ma to miejsce w przypadku rozwiązań konkurencji. Priorytetem dla Intela jest możliwość zrezygnowania z z predefiniowanych ustawień na rzecz jednego który zapewni zarówno najwyższa wydajność jak i jakość obrazu nie odbiegającej natywnemu renderowaniu. Karthik potwierdził, że Intel wprowadzi w przyszłości XeSS i wraz z rozwojem technologii. Producent udostępni swoją technologię, gdy ta dojrzeje. Przejście na dystrybucję open source dla oprogramowywania super rozdzielczości opartej na sztucznej inteligencji może pomóc zwiększyć popularność XeSS i popchnąć rynek w kierunku ujednolicenia rozwiązań pomiędzy różnymi producentami, ale może być początkiem dalszej segmentacji rynku z niewielkimi zmianami między klonami XeSS. Jest to prawdopodobnie powód, dla którego Intel niechętnie otwiera swoją technologię w momencie premiery. Technologia Intel XeSS powinna zostać uruchomiona wraz z procesorami graficznymi Arc Alchemist w pierwszym kwartale 2022 r. Intel udostępni programistom pakiet XeSS SDK o zamkniętym kodzie źródłowym oparty na wersji XMX. Pakiet SDK wersji DP4a zostanie wydany do końca tego roku. To wszystko co na tę chwilę wiemy o kartach Intel Arc. Z niecierpliwością wyczekujemy nowych informacji i oczekujemy premiery układów. Nadzieja, że trzeci gracz na rynku kart graficznych zapewni lepszą dostępność, ale i przede wszystkich konkurencyjność cenową napawa optymizmem.
Tematy o ograniczenie karty graficznej, Karta Graficzna 128 MB GeForce nVidia, Karta graficzna z 2 wentylatorkami, Karta Graficzna do gier za 300 zł 2014/2015, Karta graficzna do GTA V na niskich/średnich detalach., Szum w słuchawkach przy obciążeniu karty graficznej
Potężna karta graficzna to marzenie większości graczy. Najwięksi komputerowi entuzjaści z głębokimi kieszeniami w poszukiwaniu dodatkowej mocy decydują się jednak na zakup przynajmniej dwóch takich układów. Czy zyskują coś na takim ruchu? Tłumaczymy, co daje łączenie kart graficznych i jak się do niego zabrać. Polecamy: Jaka karta graficzna do gier? Rynek kart graficznych rozwija się niezwykle dynamicznie już od ponad dwóch dekad i napędzany jest w dużej mierze przez fanów elektronicznej rozrywki. Każdego roku informowani jesteśmy o rychłym nadejściu jakiegoś nowego standardu technologicznego, pozwalającego cieszyć się w domach grafiką o jakości, jaką nieco wcześniej można było uzyskać tylko na potężnych superkomputerach oraz stacjach największym stopniu nowości te pobudzają wyobraźnię niewielkiej grupy zapaleńców i entuzjastów skłonnych wydać każde pieniądze, by móc pochwalić się przed znajomymi jak najbardziej wydajnymi podzespołami. To głównie te osoby decydują się na zakup nie jednej, ale dwóch albo nawet i czterech kart graficznych. Tłumaczmy, na czym polega ten zabieg, co daje i czy w ogóle ma sens. Co daje łączenie kart graficznych?Najczęściej łączy się dwie karty graficzne, chociaż istnieje możliwość łączenie trzech lub nawet czterech równocześnie. Na jaki wzrost wydajności możemy liczyć po zespoleniu GPU? Laik mógłby spodziewać się, że będzie on stuprocentowy, bowiem korzystamy teoretycznie z dwóch procesorów graficznych jednocześnie. Sprawa jest jednak nieco bardziej nie wykorzystuje pełnej mocy obu działających w parze GPU. Druga karta pełni bowiem rolę pomocniczą, wspomagając bliźniaka w przeprowadzaniu operacji obliczeniowych. Osiągnięty przyrost mocy w takiej konfiguracji zależy od wielu czynników i może wynosić od kilkunastu do kilkudziesięciu grach sytuacja jest jeszcze zgoła inna. Jeżeli bawimy się z dobrze zoptymalizowanymi produkcjami, otrzymamy wspaniałe efekty. W przypadku, gdy tytuł nie obsługuje dwóch kart graficznych, zaobserwujemy nawet straty w płynności, z jaką wyświetlana jest grafika, w porównaniu do pojedynczego gamingiem podwójne GPU przydaje się, gdy korzystamy z kilku monitorów jednocześnie, pracujemy z zaawansowanymi programami graficznymi lub używamy bardzo wysokich rozdzielczości ekranu. Czy możemy połączyć ze sobą wszystkie modele kart graficznych?Nie. Zazwyczaj połączymy ze sobą tylko te karty graficzne, które wspierają tego typu operację. Po pierwsze, muszą być one kompatybilne z jedną z dedykowanych technologii dostarczonych przez czołowych producentów układów graficznych, chodzi tu oczywiście o firmy Nvidia oraz AMD. W przypadku kart Nvidia GeForce nosi ona nazwę SLI (Scalable Link Interface), a w przypadku AMD Radeon łączenie kart graficznych przygotowana powinna być ponadto płyta główna. Sprawdzamy, czy ma co najmniej dwa porty PCIe Express oraz odpowiedni certyfikat SLI lub Crossfire. Współczesne GPU są niezwykle masywnymi urządzeniami, wymagają więc odpowiednio dużo wolnego miejsca w obudowie zapominajmy również o zapewnieniu wystarczającego poziomu energii układom. Będzie nieodmiennie wiązało się to z zakupem bardzo silnego zasilacza komputerowego wysokiej klasy. Niezwykle ważne jest też skuteczne chłodzenie całego zestawu, konieczna może okazać się więc instalacja dodatkowych lub silniejszych wentylatorów. Łączenie kart graficznych Nvidia GeForce – SLIWspółpracujące z SLI modele GPU posiadają z boku specjalne łącze, do którego podłączamy tzw. mostek, który fizycznie scala kilka układów i pozwala im na dodatkową wymianę informacji. Zaznaczmy, że w przypadku Nvdii karty działające w tandemie muszą być identyczne. Łączenie kart graficznych AMD Radeon – CrossfirePodobnie jak w przypadku SLI, kartę Radeon z Crossfire łączymy ze sobą za pomocą specjalnego kabla. W najnowszych modelach kart wspierających tę technologię nie jest to już jednak wymagane. Zaletą Crossfire jest również to, że możemy sparować ze sobą dwa różne modele układów graficznych. Czy łącznie kart graficznych ma sens?Obecnie łączenie kart graficznych ma coraz mniejszy sens i na tę sytuację wpływają głównie drastycznie rosnące ceny tych układów oraz ich mocno ograniczona dostępność w sklepach. Kupno dwóch flagowych lub bardzo dobrych GPU jest przez to czystym szaleństwem dla 99 procent graczy. Do podobnego wniosku doszły również firmy AMD i Nvidia, które po cichu przestają wspierać i promować technologię łączenia kart. Najnowsze układy Nvidii z serii GeForce 30** kompletnie porzuciły już np. oficjalne wsparcie dla SLI. Do projektantów GPU dołączają także firmy oferujące płyty główne, a także deweloperzy gier, którzy rezygnują z dodatkowej optymalizacji swoich produkcji z myślą o SLI i to znacząco obniżyło atrakcyjność całej operacji, o której, jeżeli nic się nie zmieni, nie będzie pamiętał nikt poza małymi kręgami entuzjastów oraz właścicielami starszych modeli kart.
Jeśli podłączyłeś wszystko, a karta nie włącza się, może być wadliwe. Patrz sekcja testowania karty w komputerze zastępczym lub skontaktuj się z producentem. 6. Czy twój zasilacz jest wystarczająco silny? Każda karta ma określone wymagania dotyczące mocy do pracy. Jeśli komputer nie może go dostarczyć z wystarczającą mocą
Recommended Posts Udostępnij Siema. Ostatnio podczas grania w gry, moja karta była wykorzystywana w 100%. Dzisiaj coś jej 'odwaliło' i nagle jest wykorzystywana tylko mniej więcej w połowie. Co najlepsze, nie ogranicza ją procesor, ponieważ ten jest w użyciu max 40%. Od dzisiaj również zaczęły piszczeć cewki na karcie. Czy to może być tym spowodowane? Mógł się włączyć jakiś 'tryb oszczędzania energii' lub coś podobnego? Karta to MSI GTX 1060, a procesor i7-3770K @ 4,7GHz 1,375v. Pozdrawiam ! Cytuj Link to post Share on other sites Udostępnij Raczej w CS:GO procesor jest używany i GTX 1060 to nie powinien się męczyć w nim na 100%. Ja gram na i5 6600 i GTX 1060 to karta chodzi na max 60% przy średnich-wysokich ustawieniach, procesor też do 70-80% sięga w sumie ;p Cytuj Link to post Share on other sites Autor Udostępnij Raczej w CS:GO procesor jest używany i GTX 1060 to nie powinien się męczyć w nim na 100%. Ja gram na i5 6600 i GTX 1060 to karta chodzi na max 60% przy średnich-wysokich ustawieniach, procesor też do 70-80% sięga w sumie ;p Tak, zgadzam się z tobą. Tylko problem jest taki, że w GTA 5 jest to samo. Kartę kupiłem tydzień temu jako nową i od razu zainstalowałem MSI Afterburner, aby sprawdzić zużycie procesora oraz karty graficznej. W GTA oraz CS karta działała na 100%, procek max max 60%. Poza tym - ustawienia minimalne, więc 160FPS to raczej trochę słabo jak na i7 oraz 1060... Przed "spadkiem wydajności" miałem prawie 500 FPS, a karta działała na 100% (ustawienia takie same)... Cytuj Link to post Share on other sites Udostępnij Możesz albo ustawić plan zasilania w systemie na maksymalną wydajność, albo sprawdzić, czy przypadkiem jakiś nowy cfg nie zmienił Ci fps_max - najlepiej ustaw na 999. Ale to pewnie już sprawdziłeś... Cytuj Link to post Share on other sites Autor Udostępnij Możesz albo ustawić plan zasilania w systemie na maksymalną wydajność, albo sprawdzić, czy przypadkiem jakiś nowy cfg nie zmienił Ci fps_max - najlepiej ustaw na 999. Ale to pewnie już sprawdziłeś... Sprawdzałem jedno i drugie. fps_max mam na 999, a ustawienia zarządzania energią na maksymalną wydajność (te w bios również) Ostatnio bawiłem się napięciem na procesorze, aby zmniejszyć temperatury na CPU. Ustawiłem próbie na 1,370 (aktualnie mam 1,375). Problem jest od tego momentu. Czy możliwe aby zasilacz zwariował i zaczął podawać źle napięcie na cały komputer (przez co ten automatycznie obniża zegary na karcie)? Posiadam Xfx core 550, co prawda już swoje lata ma (około 6), ale chyba nie powinno mu się nic stać... Sam już nie wiem... Cytuj Link to post Share on other sites Udostępnij może masz płytę ze starym portem PCI_E x16 i wystarczy bios zaktualizować... zobacz w programie GPU_Z zegary karty graficznej gpu/mem (zakładka Sensors), oraz tryb magistrali PCI_E (zakładka Graphics Card) Cytuj Link to post Share on other sites Autor Udostępnij Bios aktualizowałem do najnowszego (musiałem, bo wymieniłem procesor). Zegary działają tak, jak podaje producent. Płyta to Asus P8P67. Na stronie producenta niby jest napisane pci-e ale przecież przez tydzień było wszystko ok... Eh Cytuj Link to post Share on other sites Udostępnij Prawdopodobnie to wina twojego ukochanego Windowsa 10, jak masz jakiś wolny dysk zainstaluj tam Windows 7 i wykonaj test. Cytuj Link to post Share on other sites Udostępnij Tak z czystej ciekawosci, co windows 10 moze robic, ze mu wykorzystuje tylko czesc mocy karty? Cytuj Link to post Share on other sites Udostępnij Usuń sterowniki od GPU i MSI Afterburner-a. Później oczywiście zainstaluj nowe. Miałem coś takiego dwukrotnie. Cytuj Link to post Share on other sites Udostępnij Filmiki z youtube wyraznie wskazuja ze nie ma zadnych 500 fps wiec bajdurzysz Cytuj Link to post Share on other sites Autor Udostępnij Prawdopodobnie to wina twojego ukochanego Windowsa 10, jak masz jakiś wolny dysk zainstaluj tam Windows 7 i wykonaj test. Komp po formacie, dalej to samo... Najlepsze jest to, że grafa dostaje czasem "kopa" i zaskakuje na 100%, lecz po chwili dostaje freeza na pół sekundy i znowu ma 50%. Cytuj Link to post Share on other sites Udostępnij Tak z czystej ciekawosci, co windows 10 moze robic, ze mu wykorzystuje tylko czesc mocy karty? jego płyta nie dostała full sterowników dla 10, Cytuj Link to post Share on other sites Autor Udostępnij Dzisiaj na próbę wsadziłem moją starą kartę GTX660. O dziwo - karta działa na 100%. Czysty Windows. Tylko Steam + sterowniki od karty. Ilość FPS w GTA5 oraz CS:GO na GTX 1060 taka sama, jak na GTX 660. Stary zestaw: GPU - 100%, CPU - 60%Nowy zestaw: GPU - 50%, CPU - 45% Uruchomiłem jeszcze 3DMark. Użycie GTX 1060 tylko w nim jest 100%...?? Czyli karta teoretycznie działa jak należy...?? Edytowane 8 Sierpnia 2017 przez proboszcz447 Cytuj Link to post Share on other sites Dołącz do dyskusji Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Karta graficzna GIGABYTE RTX 4070 Ti WindForce OC 12G to prawdziwy potwór wydajności, który oferuje nie tylko rewelacyjną grafikę, ale także innowacyjne rozwiązania chłodzenia. Dzięki legendarnemu chłodzeniu Windforce, które zostało dostosowane do niesamowitej wydajności układów RTX 4070 Ti, karta ta pozbywa się nadmiaru ciepła
W grach karta graficzna pracuje z pewnÄ… iloÅ›ciÄ… swoich zasobów, co pozwala na uzyskanie najwyższej grafiki i wygodnego FPS-a. Ale czasami twoja karta graficzna nie wykorzystuje caÅ‚ej swojej mocy, co może spowolnić grÄ™ i sprawić, że bÄ™dzie wyglÄ…dać wolno. Oferujemy kilka opcji rozwiÄ…zania tego problemu. Wskaźnik1 Dlaczego karta graficzna nie dziaÅ‚a z peÅ‚nÄ… wydajnoÅ›ciÄ…? Metoda 1: Zaktualizuj Metoda 2: Zaktualizuj Metoda 3: ZmieÅ„ kartÄ™ graficznÄ… Czy ten artykuÅ‚ ci pomógÅ‚?Dlaczego karta graficzna nie dziaÅ‚a z peÅ‚nÄ… wydajnoÅ›ciÄ…?Na wstÄ™pie chcielibyÅ›my zaznaczyć, że w niektórych przypadkach karta graficzna nie wykorzystuje swojej peÅ‚nej mocy, ponieważ nie jest to konieczne np. Podczas przejÅ›cia starej gry, która nie wymaga wielu zasobów systemowych. Musisz siÄ™ tym martwić tylko wtedy, gdy GPU nie dziaÅ‚a na 100%, a liczba klatek jest maÅ‚a i jest hamulec. Możesz okreÅ›lić obciążenie ukÅ‚adu graficznego za pomocÄ… programu FPS musi wybrać odpowiedniÄ… scenÄ™, w której znajduje siÄ™ parametr „GPU”.i skonfiguruj resztÄ™ sceny indywidualnie wedÅ‚ug wÅ‚asnych upodobaÅ„. Teraz bÄ™dziesz mógÅ‚ zobaczyć obciążenie komponentów swojego systemu w czasie rzeczywistym podczas gry. JeÅ›li masz problem z kartÄ… graficznÄ…, która nie dziaÅ‚a z peÅ‚nÄ… wydajnoÅ›ciÄ…, możesz to naprawić na kilka prostych 1: Zaktualizuj sterownikiPodczas korzystania z przestarzaÅ‚ych sterowników wystÄ™pujÄ… różne awarie systemu operacyjnego. Ponadto starsze sterowniki niektórych gier zmniejszajÄ… liczbÄ™ klatek na sekundÄ™ i powodujÄ… spowolnienia. Obecnie AMD i NVIDIA umożliwiajÄ… aktualizacjÄ™ swoich sterowników za poÅ›rednictwem oficjalnych programów lub poprzez rÄ™czne pobieranie plików ze strony internetowej. Możesz także użyć specjalnego oprogramowania. Wybierz najwygodniejszy dla siebie wiÄ™cej:Aktualizowanie sterowników karty graficznej za pomocÄ… DriverMaxAktualizacja sterowników karty graficznej NVIDIAInstalacja sterownika za poÅ›rednictwem AMD Catalyst Control CenterSposoby aktualizacji sterowników karty graficznej w systemie Windows 10Metoda 2: Zaktualizuj procesorTa metoda bÄ™dzie odpowiednia tylko dla tych, którzy używajÄ… procesorów starszej generacji i nowoczesnych kart graficznych. Chodzi o to, że moc procesora nie jest wystarczajÄ…ca do normalnej pracy ukÅ‚adu graficznego, wiÄ™c wystÄ™puje problem niedociążenia GPU. WÅ‚aÅ›ciciele procesorów drugiej i czwartej generacji zalecajÄ… aktualizacjÄ™ do procesorów szóstej i ósmej generacji. JeÅ›li chcesz dowiedzieć siÄ™, jakÄ… masz generacjÄ™ procesora, przeczytaj wiÄ™cej na ten temat w naszym wiÄ™cej: Jak sprawdzić generacjÄ™ procesorów IntelNależy pamiÄ™tać, że stara pÅ‚yta główna nie bÄ™dzie obsÅ‚ugiwać nowego kamienia w przypadku aktualizacji, wiÄ™c bÄ™dzie również musiaÅ‚a zostać wymieniona. WybierajÄ…c akcesoria, upewnij siÄ™, że sÄ… one ze sobÄ… también:Jak wybrać procesor do swojego komputeraWybór pÅ‚yty głównej dla Twojego procesoraJak wybrać pamięć RAM dla swojego komputeraZmieÅ„ procesor komputeraMetoda 3: ZmieÅ„ kartÄ™ graficznÄ… laptopaNowoczesne notebooki sÄ… zwykle wyposażone nie tylko w rdzeÅ„ graficzny zintegrowany z procesorem, ale także w osobnÄ… kartÄ™ graficznÄ…. Kiedy piszesz, sÅ‚uchasz muzyki lub wykonujesz inne proste zadania, system automatycznie przełącza siÄ™ na zintegrowany rdzeÅ„ graficzny, aby oszczÄ™dzać energiÄ™, ale kiedy grasz w to zachowanie, nie zawsze tak siÄ™ dzieje. Możesz rozwiÄ…zać ten problem, korzystajÄ…c z oficjalnego oprogramowania do zarzÄ…dzania kartÄ… graficznÄ…. JeÅ›li masz zainstalowane urzÄ…dzenie NVIDIA, wykonaj nastÄ™pujÄ…ce kroki:Otwarte „Panel sterowania NVIDIA”Ir "ZarzÄ…dzanie parametrami 3D"., naciÅ›nij przycisk "Dodaj" i wybierz żądane ustawienia i zamknij panel gry bÄ™dÄ… teraz dziaÅ‚aÅ‚y tylko przez oddzielnÄ… kartÄ™ graficznÄ…, co znacznie zwiÄ™kszy wydajność, a system w peÅ‚ni wykorzysta możliwoÅ›ci kart graficznych AMD muszÄ… zrobić coÅ› innego:Otwórz AMD Catalyst Control Center, klikajÄ…c prawym przyciskiem pulpit i wybierajÄ…c odpowiedniÄ… opcjÄ™.Ir "Odżywianie". i wybierz element „Przełączalne karty graficzne”. Dodaj gry i ustaw przeciwne wartoÅ›ci "Wysoka wydajność"..JeÅ›li powyższe opcje wymiany karty graficznej nie zadziaÅ‚aÅ‚y lub sÄ… dla Ciebie niewygodne, skorzystaj z innych sposobów, które sÄ… szczegółowo opisane w naszym informacji: Jak zmienić kartÄ™ graficznÄ… w laptopieW tym artykule szczegółowo opisujemy kilka sposobów uwolnienia peÅ‚nej mocy oddzielnej karty graficznej. Jeszcze raz przypominamy, że karta nie zawsze musi wykorzystywać 100% swoich zasobów, szczególnie podczas wykonywania prostych procesów, dlatego nie spiesz siÄ™, aby coÅ› zmienić w systemie bez widocznych problemów. Cieszymy siÄ™, że mogliÅ›my Ci pomóc w rozwiÄ…zaniu co Ci siÄ™ nie udaÅ‚o. Nasi specjaliÅ›ci postarajÄ… siÄ™ odpowiedzieć jak ten artykuÅ‚ ci pomógÅ‚? Oto rozwiązania, których możesz użyć, aby naprawić błąd „Karta graficzna nie spełnia minimalnych wymagań” w Starfield. Możesz się sprawdzić utknął na ekranie ładowania jeśli nadal napotykasz problem podczas uruchamiania gry. Dostać więcej Pole Gwiazd przewodników, tutaj na Gamer Tweak. Panowie mam do was takie pytanie odnośnie obciążenia GPU przez grę !!!! Mam Kartę graficzną Gigabyte GeForce GTX 1050 OC 2GB GDDR5 Ostatnio wpadła mi w łapy gra EURO TRUCK SYMULATOR 2 w którego gram po kilkanaście godzin dziennie i tu moja obawa o moją grafikę. "do sprawdzenia wykorzystania GPU użyłem programu GPU-Z" Podczas gry w ets2 zużycie GPU Utrzymuje się stale na 923 MHZ wykorzystania GPU, czy przy długotrwałym takim obciążeniu nie zatyram sobie przed wcześnie tej karty graficznej? Drugie pytanie co do karty w specyfikacji karty podane jest że jej taktowanie rdzenia to 1404 MHZ as w trybie TURBO Boost to 1518 MHZ Ja obciążając kartę na 100% w programie AIDA programikiem "system stability test" GPU-Z pokazuje mi 1749 MHZ zużycia GPU ? Czemu tak się dzieje? Czy to moja karta jakaś nad wyjątkowa czy GPU-Z coś pokręcił? Za pomoc dzięki panowie !!! Siema, mam mały problem z moim "setupem" a mianowicie mam wrażenie, że podczas gry w GTA Online czasami procek albo karta graficzna nie wykorzystuje w pełni swojego zakresu mocy i możliwości w sytuacji gdzie ta moc akurat jest potrzebana. Załączam screen z GTA Online (wtedy nagrywałem tak to mam W artykule Test najpopularniejszych kart graficznych ostatniej dekady sprawdzaliśmy, jak zmieniała się wydajność najchętniej kupowanych kart graficznych w ciągu ostatnich lat. Kolejne generacje GPU, zmiany procesu technologicznego wpływały na znaczny wzrost wydajności. Oczywiście rosła również cena. Aktualnie na przeciętną kartę graficzną trzeba przeznaczyć około 1000 złotych, kilka lat temu za 1500 złotych można było kupić znacznie wyżej usytuowany w hierarchii model. W obrębie 10 lat postęp jest bardzo duży, jeżeli jednak spojrzymy na znacznie krótszy okres czasu, który obejmuje jedną lub dwie architektury, rodzi się pytanie o segmentacje kart. Flagowy GPU określa aktualne możliwości najnowszej technologii i technik, na nic więcej nie możemy liczyć. Oczywiście karty wyposażone topowy układ graficzny, są drogie, obecnie nawet bardzo. Tak duża kwota wstępu do grona graczy byłaby dla wielu osób zaporą nie do przebycia, toteż od wielu lat producenci układów graficznych skutecznie tworzą wiele słabszych i niżej wycenionych dzieje się to w dwojaki sposób. W trakcie produkcji nowych układów lepszy uzysk daje możliwość stworzenia jeszcze lepszej karty, która będzie działać szybciej. Z drugiej strony naturalne jest, że powstają słabsze modele ograniczone sztucznie przez producenta. Ograniczenie to może być zrealizowane na kilka sposobów: Niższa częstotliwość taktowania rdzenia oraz TDP. Mniejsza liczba bloków funkcjonalnych, która bezpośrednio przekłada się na wydajność obliczeniową. Mniej pamięci graficznej, co ma znaczenie w przypadku niektórych gier. Węższa magistrala pamięci. W ten sposób, regulując te parametry, można stworzyć całą rodzinę kart, zapewniającą pełne spektrum wydajnościowe i cenowe. W wypadku architektury Turing, w sklepach znajdziemy karty z serii GTX, z czego najtańszy model GeForce GTX 1650, pozbawiony modułów RT, kosztuje nieco ponad 600 złotych. Flagowy model GeForce RTX 2080 Ti dostępny jest w cenie ponad 5000 złotych. Architektura ta sama, jednak konfiguracja GPU, rozmiar rdzenia i możliwości jakże inne. O ile firma AMD nie ma jeszcze propozycji w najwydajniejszym segmencie, to zarówno Nvidia, jak i AMD w średnim i budżetowym przedziale cenowym mają bardzo wiele modeli GPU. Co ciekawe, pod względem wydajności i cen, karty rzadko rywalizują ze sobą. Owszem, są modele mniej lub bardziej opłacalne, ale poprzez zmianę wyżej wymienionych parametrów producenci GPU są w stanie precyzyjnie umieścić dany model w segmencie wydajnościowym. Patrząc od strony użytkownika, pewne parametry można zmieniać poprzez konfigurację, natomiast zawsze w ograniczonym zakresie. Parametry, na które wpływ ma użytkownik to: Częstotliwość pracy rdzenia graficznego - zwykle można ją zwiększyć, jednak wcześniej należy przydzielić karcie większy budżet energetyczny poprzez zwiększenie parametru TDP. Możliwości podkręcania zależą od wielu czynników, także tych zależnych od konkretnego egzemplarza, a wzrost wydajności nie przekracza kilkunastu-kilkunastu procent. Częstotliwość pracy pamięci - podobnie jak w wypadku GPU, także i pamięć VRAM można podkręcać. W tym wypadku wszystko zależy od modelu i zainstalowanych w nim pamięci. CO więcej, w zależności od architektury wzrost wydajności uzyskany tą metodą może być różny. Po drugiej stronie stoją parametry, które zostały arbitralnie nadane przez producenta GPU podczas segmentacji modeli. Nie mamy na nie wpływu, wszelkie decyzje związane ze specyfikacją GPU podejmujemy podczas zakupu. Liczba i rodzaj jednostek obliczeniowych w GPU Szerokość szyny pamięci Rozmiar zamontowanej pamięci Producent karty ─ wpływ na wydajność Dobrze wiecie, że sam producent karty graficznej nie ma bezpośrednio dużego wpływu na wydajność GPU. Z testów kart niereferencyjnych, które dla Was przeprowadzamy, wynika, że różnice w szybkości podobnie wycenionych modeli nie przekraczają kilku procent. Zdecydowanie ważniejsze są jednak inne kryteria, na przykład układ chłodzący GPU. To on odpowiada za możliwości OC oraz za osiąganą maksymalną częstotliwość w trybie boost. Oczywiście kluczowa jest także głośność pracy, bo jeśli wydajność jest na podobnym poziomie, to podczas wyboru konkretnego modelu pod uwagę należy wziąć kolejne kryteria - również cenowe. Co będziemy testować? W tym artykule postanowiliśmy sprawdzić dla Was czynniki nie zawsze zależne od użytkownika. Na kolejnych stronach dowiecie się, jak TDP, częstotliwość taktowania, a także i napięcie zasilające GPU wpływają na końcową wydajność. Jakiego rodzaju są to zależności oraz jak duży jest to wpływ. Dodatkowo udało nam się wyizolować takie różnice jak: szerokość szyny pamięci, pojemność pamięci lub liczba rdzeni RT. Zapraszamy do lektury. Wpływ TDP na wydajność TDP jest to współczynnik, który służy do odpowiedniego doboru układu chłodzenia do konkretnego procesora - niezależnie, czy to jest CPU lub GPU. Moc tracona w postaci ciepła jest bezpośrednio związana z mocą prądu elektrycznego dostarczanego do urządzenia. Idąc dalej tą ścieżką, logiczne jest więc, że im wyższa wydajność, tym dany sprzęt będzie pobierał więcej prądu. Zależności te w ogólnym rozumieniu są proste, jednak przyglądając się szczegółom, trudniej je interpretować. Warto zauważyć, że w ofercie jednego, konkretnego producenta znajdziemy przynajmniej kilka modeli z tym samym GPU. W wypadku Asus Phoenix RTX 2060 i ROG Strix RTX 2060 największą różnicą, którą zobaczymy na pierwszy rzut oka, to wielkość układu chłodzącego. Asus Phoenix RTX 2060 wyposażony jest w bardzo prosty schładzacz, którego współczynnik TDP wynosi 115 watów (spełnia on więc referencyjne TDP), natomiast w modelu ROG Strix układ chłodzenia charakteryzuje się współczynnikiem 160 do 190 watów. Czy w takim razie 165 procent domyślnego TDP przełoży się na o 65 procent lepszą wydajność? Oczywiście, że nie! Jej wzrost będzie dużo mniejszy, najczęściej możemy mówić najwyżej o dodatkowych 5- lub 10 procentach. TDP jest wiec parametrem, który możemy regulować w ograniczonym zakresie. Zwiększając go, zmieniamy budżet mocy danego układu graficznego. Oznacza to, że układ będzie pobierał więcej prądu, częstotliwość wzrośnie (podobnie jak wytwarzana energia cieplna) i wydajność też. TDP co to jest? TDP, czyli thermal desing power, to parametr opisujący, ile ciepła jest w stanie wygenerować układ graficzny w scenariuszu przy typowym (dużym) obciążeniu np. granie w gry komputerowe. Na podstawie tego parametru dobierana jest wydajność schładzacza. Oczywiście rdzeń karty graficznej nie może pobrać dowolnie dużo prądu. Ma on swoje limity, tj. limit mocy oraz maksymalnego prądu. Limity te określają maksymalny budżet prądowy, którego rdzeń graficzny nie jest w stanie przekroczyć. Więc jak łatwo zauważyć parametr TDP ma wpływ nie tylko na samą temperaturę (aczkolwiek jest to definicja encyklopedyczna), lecz też na pozostałe limity rdzenia graficznego. Dlatego jeśli będziemy w stanie wpłynąć na ten parametr to, możliwe będzie podniesienie wydajności samego układu graficznego. Warunki eksperymentu Testom poddaliśmy trzy popularne karty graficzne: Asus ROG Strix RTX 2070, Nvidia GeForce RTX 2060 Founders Edition i AMD Radeon RX 5700. Test polegał na zwieszaniu w kroku 5 % parametru opisywanego jako TDP. Jednocześnie resztę ustawień zostawialiśmy na ustawieniach referencyjnych, czyli nie podnosiliśmy ręcznie częstotliwości rdzenia, tylko sprawdzaliśmy jak karta graficzna zareaguje na zniesienie domyślnych limitów mocy. Liczyliśmy więc tutaj na działanie trybów turbo. Dodatkowo przy każdej zmianie limitu mocy monitorowaliśmy takie współczynniki jak: pobór mocy rdzenia i całego zestawu. Wyniki Test został wykonany w grze Wiedźmin 3: Dziki Gon. Wybór podyktowany był wzorcową powtarzalnością testów, a odsetek błędu rzadko kiedy przekracza więcej niż 0,2 klatki na sekundę. Średnio karty graficzne przyspieszyły o około dwie klatki na sekundę, czyli niewiele więcej niż 3%. Ich średni pobór prądu wzrósł o około od 10 % dla ROG Strix RTX 2070 do około 19% dla pozostałych kart graficznych. Co nas trochę zaskoczyło to to, że znając mechanizmy Boost w kartach graficznych Nvidii i AMD, spodziewaliśmy się, że wzrost częstotliwości taktowania poszczególnych kart graficznych będize większy. To tylko prowadzi do konkluzji, żeby skorzystać w pełni możliwości podniesienia limitu mocy, trzeba ręcznie zwiększyć częstotliwość pracy rdzenia karty graficznej. Warto zauważyć, że wzrost TDP przekłada się na wzrost napięcia zasilania, to zaś proporcjonalnie wpływa na zmianę mocy prądu pobieranego przez kartę. Podobna zależność jest pomiędzy częstotliwością taktowania a wydajnością. W zależności od modelu karty liczy się jednak przedział, w którym możemy regulować parametr TDP. Undervolting i podkręcanie karty graficznej. Undervolting to celowe obniżanie napięcia na rdzeniu karty graficznej, które ma spowodować niższe zapotrzebowanie karty graficznej na energię elektryczną. Zerknijcie jeszcze raz na poprzednią stronę - zmieniany parametr TDP jest naniesiony na skali liniowej, zaś przebieg Vcore zmienia się wykładniczo. Dlatego w wypadku tego procesu szukamy optymalnej wartości napięcia, przy której nie nastąpi przekroczenie limitów energetycznych GPU przy maksymalnej częstotliwości taktowania. Zazwyczaj jednak po obniżeniu napięcia na rdzeniu realna częstotliwość pracy układu graficznego też ulega pogorszeniu, ale umiejętnie przeprowadzony undervolting nie powinien skutkować dużym spadkiem wydajności. Bardzo często wydajność pozostaje na tym samym poziomie, karta pracuje natomiast ciszej i jest mniej prądożerna. Co ciekawe zdarzają się układy, w których obniżenie napięcia pozwala uzyskać lepszą wydajność. Undervolting w praktyce W wypadku kart z logo AMD w sterownikach Adrenalin mamy nawet opcję do automatycznego undervoltingu. Samo określenie undervoltingu w polskiej wersji sterowników zostało przetłumaczone na podnapięcie GPU. Trochę nieporadnie, ale wiadomo o co chodzi. Możemy je znaleźć w menu o tak samo intuicyjnej nazwie Dostrajanie (ang. Tuning). Możemy też wykonać underwolting ręcznie. W przypadku testowanych kart AMD ręczne ustawienie undervoltingu dało lepsze rezultaty. Na kolejnych slajdach pokażemy tę procedurę krok po kroku. Krok pierwszy - przechodzimy do zakładki dostrajanie i wybieramy tryb ręczny. Krok drugi - obniżamy napięcie rdzenia GPU, do momentu, aż komputer przestanie pracować stabilnie. Bardzo ważne: poprzez obniżenie napięcia na rdzeniu GPU nie uszkodzimy naszej karty graficznej. Po utracie stabilności nastąpi ponowne uruchomienie komputera - wystarczy skonfigurować ostatnie stabilne ustawienia i przetestować je. Szukanie stabilnego napięcia dla GPU potrafi być procesem czasochłonnym, więc nie powinniśmy się zniechęcać od razu. Krok trzeci - sprawdzamy stabilność uzyskanych ustawień. W przypadku testowanych kart graficznych AMD Radeon RX 5700 i 5600 XT wartością graniczną do stabilnej pracy układy granicznego było 0,825 V. Operacja undervoltingu na kartach graficznych Nvidii nie jest tak intuicyjna jak w przypadku AMD. Po pierwsze, nie mamy dedykowanego menu w sterownikach, musimy posiłkować się aplikacjami firm trzecich. W laboratorium używamy oprogramowania MSI Afetrburner. Sam proces przebiega bardzo podobnie, obniżamy napięcie rdzenia do wartości, przy której stabilność jest niezachowana. Następnie szukamy kombinacji wartości częstotliwości rdzenia i jego napięcia, która nas zadowoli. Jak przebiega cała procedura, przedstawiamy na kolejnych slajdach krok po kroku. Krok pierwszy - uruchamiamy MSI Afterburner, następnie wciskamy kombinację klawiszy Ctrl+F, otwiera się nowe okno z krzywą napięcia rdzenia i częstotliwości. Krok drugi - obniżamy krzywą, łapiąc myszką jeden z punktów i ze wciśniętym przyciskiem Shift przesuwamy całą krzywą do dołu. Krok trzeci - wybieramy pojedynczy punkt z krzywej, częstotliwości i napięć rdzenia i akceptujemy go, krzywa wtedy się ustawia. Wyniki Undervolting, okazał się strzałem w dziesiątkę dla testowanych kart graficznych, udało się uzyskać bardzo satysfakcjonujące rezultaty. Na kartach graficznych Nvidii spadek wydajności praktycznie nie występował, pomimo mniejszego napięcia na rdzeniu i niższym nastawom częstotliwości rdzenia. AMD wypada odrobinę gorzej, AMD Radeon RX 5600 XT przed undervoltingiem osiągał średnią liczbę klatek na sekundę w Wiedźminie 3 na poziomie 64,1 kl./s. Po tym zabiegu wartość ta spada do 61,2 kl./s co naszym zdaniem jest nadal bardzo dobrym wynikiem. Wydajniejszy Radeon RX 5700 zachowuje się podobnie. Podkręcanie kart graficznych Możliwość podkręcenia karty graficznej to darmowy bonus od producentów kart graficznych. Jest on co prawda bardzo losowy, ale prawie zawsze możemy liczyć na delikatny wzrost wydajności. Przetestowaliśmy kilka kart graficznych, żeby sprawdzić, ile uda nam się podnieść ich wydajność i czy gra jest warta zachodu. Producenci kart graficznych lubią chwalić się tym, że ich karta graficzna jest podkręcona względem modelu referencyjnego. Nawet takie modele mają jeszcze trochę zapasu wydajności. Dobrym przykładem jest ROG Strix RTX 2070. Ręcznie przeprowadzony proces OC skutkował zyskiem wydajności na poziomie 2 klatek na sekundę. W przypadku kart niepodkręconych fabrycznie możemy liczyć na wzrost wydajności wynoszący około od pięciu do dziesięciu procent, w sporadycznych przypadkach więcej. Szyna danych w karcie graficznej: 192 bit kontra 256 bit - Co to jest? Szyna danych to magistrala komunikacyjna karty graficznej, która odpowiada za przekazywanie (transmisję) danych pomiędzy rdzeniem karty graficznej a pamięcią VRAM. W przypadku karty graficznej komunikacja ta jest równoległa. Najważniejszym parametrem szyny danych jest jej szybkość. W wypadku równoległej transmisji liczba bitów proporcjonalnie przekłada się na wzrost szybkości wymiany danych. Szyna danych (pamięci) - jak to wygląda w praktyce. To bardzo prosty test, a ponieważ szerokość szyny danych to założenie nałożone przez producenta GPU i karty, to trudno jest wyizolować idealnie takie samo GPU z różną szerokością magistrali pamięci. Udało nam się to osiągnąć dzięki najnowszym kartom AMD z rodziny Navi. Na rynku dostępne są bowiem dwie karty z praktycznie tym samy GPU i różną konfiguracją pamięci. Radeon RX 5700 ma szynę pamięci 256 bitów, natomiast Radeon RX 5600 XT wyposażano w pamięć o szerokości magistrali 192 bity. Właśnie tych dwóch kart graficznych użyliśmy do przeprowadzenia naszego eksperymentu. Warunki eksperymentu. Obie karty graficzne dysponują identycznym rdzeniem graficznym Navi i pamięciami VRAM o identycznej szybkości działania. Jedyną różnicą pomiędzy nimi jest pojemność modułów pamięci. Mocniejszy RX 5700 dysponuje 8 GB VRAM, a słabszy RX 5600 XT do swojej dyspozycji ma 6 GB. Naszym zadaniem było wybranie odpowiedniego tytułu, który nie będzie wymagał dużej ilości pamięci VRAM, ale nadal będzie wymagający. Nasz wybór padł na Wiedźmina 3. Kolejnym warunkiem, jaki spełniliśmy, było ustawienie częstotliwości pracy rdzenia obydwu kart graficznych na jednakową częstotliwość (1680 MHz). Moduły pamięci w obydwu kartach graficznych pracowały z jednakową częstotliwością 14000 MHz - na rynku dostępne były różne wersje kart AMD Radeon RX 5600 XT. Kiedy już wszystko zostało ustawione, przystąpiliśmy do testów. Wyniki Wynik był przewidywalny, karta z szybszą magistralą danych okazała się szybsza, ale jej przewaga nad wolniejszym Radeonem to zaledwie średnio 3,6 klatki sekundę. To zaledwie 5 procent szybciej. Rdzenie RT i ich wydajność w śledzeniu promieni W najnowszych kartach graficznych Nvidii z serii RTX otrzymaliśmy kilka nowych rozwiązań technologicznych, z czego najważniejsze są rdzenie RT. Śledzenie promieni w praktyce Na dzień dzisiejszy gier wykorzystujących technikę ray tracingu jest mało, niewiele ponad 10 tytułów. Na szczególne wyróżnienie zasługują: Battlefield V ─ jest to pierwszy tytuł wykorzystujący efekty ray tracingu do symulacji naturalnych odbić w powierzchniach refleksyjnych. Control, który umiejętnie wykorzystuje rdzenie RT do generowania cieni i odbić. Metro: Exodus, które jako jedyny tytuł śledzenie promieni wykorzystuje do generowania całego oświetlenia w grze. Karty graficzne z serii RTX wyposażone są w rdzenie RT, które w sposób sprzętowy przyspieszają wykonywanie obliczeń związanych ze śledzeniem promieni. Pojedynczy rdzeń RT może wykonywać dwie operacje. Sprawdzać, czy pojedynczy promień zderzył się z obiektem (pojedynczym werteksem) na scenie 3D lub obliczać, które struktury akceleracji BVH dany promień przecina (akceleracja BVH była opisywana w tym artykule). Poszczególne karty graficzne serii RTX są wyposażone w różną liczbę rdzeni RT: GeForce RTX 2060 - 30 rdzeni RT GeForce RTX 2060 SUPER - 34 rdzeni RT GeForce RTX 2070 - 36 rdzeni RT GeForce RTX 2070 SUPER - 40 rdzeni RT GeForce RTX 2080 - 46 rdzeni RT GeForce RTX 2080 SUPER - 48 rdzeni RT GeForce RTX 2080 Ti - 68 rdzeni RT Warunki eksperymentu Jak zmierzyć wydajność samego RT nie angażując do tego rdzeni CUDA. To bardzo trudne, praktycznie niemożliwe zadanie. Dobierając odpowiednie oprogramowanie udało nam się jednak zniwelować użycie rdzeni CUDA. Nasz wybór padł na syntetyczny benchmark Vray NEXT, w którym możemy sprawdzić, jak dana karta graficzna poradzi sobie z renderowaniem sceny 3D, która w całości generowana jest na podstawie obliczeń śledzenia promieni. Domyślnie otrzymujemy pojedynczy wynik, który określa, ile ścieżek śledzenia promieni udało się policzyć przez 60 sekund. Szukając trochę głębiej, możemy dowiedzieć się, ile ścieżek promieni zostało policzonych na sekundę dla jednego piksela oraz ile próbek maksymalnie pojedynczy piksel może przechować. Wyniki Dodatkowo dodaliśmy wynik, jaki osiągnął procesor Intel Core i7 8700K 4,9 GHz. Już na pierwszy rzut oka widać, że wraz ze wzrostem liczby rdzeni RT rośnie wydajność w liczbie przetworzonych promieni na scenie. Było to do przewidzenia. Dodatkowo teraz wiemy, że wydajność ta skaluje się liniowo, choć nie jesteśmy w stanie wykluczyć wszystkich zmiennych z tego testu, tylko je zminimalizować. Wykres przedstawia maksymalną liczbę promieni prześledzonych na scenie 3D na sekundę. Na wykresie pokazującym liczbę próbek, które może przechować pojedynczy piksel, widzimy te same wartości dla pięciu kart z siedmiu. Odpowiedzialna za to jest pojemność dostępnej pamięci VRAM, to w niej przechowywane są informacje o próbkowaniu. RTX 2060 dysponuje sześcioma gigabajtami VRAM, pozostałe karty użyte w teście dostępne mają odpowiednio 8 GB VRAM to te z wynikiem 432 próbek i 11 GB to GeForce RTX 2080 Ti on osiągnął wynik 576 próbek. Znając wyniki z syntetycznego testu, postanowiliśmy, je przełożyć na bardziej przemawiające dla nas wyniki, jak w takim razie rdzenie RT mają wpływ na wydajność w grach. I znowu chcieliśmy wziąć tytuł, który jest najbardziej wymagający pod względem obliczeń RT. Ten warunek spełniło Metro: Exodus. Wyniki, jakie otrzymaliśmy w Metro: Exodus udowadniają nam, jak duże znaczenie mają rdzenie RT dla obliczeń śledzenia promieni. Wydajność skalowała się idealnie wraz ze wzrostem rdzeni RT. Najwolniejszy RTX 2060 ma 30 rdzeni RT, jego wynik to średnio 26,9 kl./s. Najszybszy z przetestowanych modeli, 2080 Ti na swoim wyposażeniu ma 68 rdzeni RT. To o 125% więcej od najsłabszego RTX'a, jego średnia liczba wyświetlanych klatek na sekundę to 55,1, jest to o 105% wyższy wynik, niż w przypadku najsłabszego w stawce RTX'a 2060.
\n\n \n karta graficzna nie wykorzystuje swojej mocy
Karta graficzna do komputera PC to istotny element komputera, odpowiedzialny za przetwarzanie i renderowanie obrazów, filmów i grafiki w czasie rzeczywistym. Działa jako pośrednik pomiędzy procesorem a monitorem, przesyłając niezbędne dane do wyświetlania wysokiej jakości obrazów i generowania imponujących efektów wizualnych. 11 godzin temu, aXen™ | 1s2k napisał: Korzystałeś z programów takich jak CCLeaner? Windows 10 tego nie lubi i może spowolnić system zamiast przyspieszyć. Resetowałeś sterowniki NVIDIA? Instalowałeś dla odpowiedniej karty graficznej? Ustawiałeś coś w sterownikach karty graficznej? Aktualizowałeś wszystkie sterowniki? BIOS aktualny? Jak masz ustawione ustawienia w BIOSie? Zrób aktualizacje do najnowszej wersji Windows 10 1903 (May 2019 Update). Aktualizacja poprawkowa z dzisiaj miała poprawić działanie znikających kart graficznych podczas gry. Używałem CCLeaner, ale było to już po tym fakcie więc raczej związku z tym to nie ma. Robiłem DDU, instalowałem z nVidii odpowiednie na moją kartę. Ustawiałem, bawiłem się, potem resetowałem, formatowałem i nic. Tak aktualizowałem. Mam problem z aktualizacją biosu. Formatowałem pendrive do odpowiedniego formatu, ale to nic nie pomogło. M-Flash nie czyta mi tego pliku jako aktualizacje biosu. Być może to jest winowajca bo mam bios z 2016 roku. Ustawienia w BIOS'ie mam fabryczne, bawiłem się tylko z wiatraczkami. Aktualizacja zrobiona. Sprawdzę, czy coś pomogło. A tym czasem pokombinuje coś z tym BIOS'em bo nie czyta biosu
Wpływ karty graficznej na wydajność komputera. Wydajność komputera zależy od wielu czynników, ale jednym z kluczowych elementów jest karta graficzna.W przypadku zastosowań wymagających dużej mocy obliczeniowej, takich jak gry komputerowe, programy do projektowania graficznego czy obróbki wideo, wydajna karta graficzna może znacząco wpłynąć na jakość i komfort pracy.
21:35 Karta graficzna nie wykorzystuje swojej mocy w GTA ONLINEWitam mam problem w GTA ONLINE, miesiąc temu złożyłem komputer:- Gigabyte geforce gtx 1660 super oc gaming- Intel core i5-9400F- Motherboard PRIME H310M-R 8GB RAMW GTA ONLINE moja karta graficzna pracuje w 38-60%, gdzie w fabule pracuje normalnie na 80-95%. Przez to w GTA ONLINE mam duże spadki FPS, 85-48 fps, nie wiem co się dzieje gdzie gra powinna chodzić normalnie na 80fps conajmniej. Grafikę mam ustawioną na ultra ale gdy zmieniałem na mniejsze ustawienia to nie było różnicy, proszę o szybką pomoc... 10:44 odpowiedz1 odpowiedź AIDIDPl152 PC-towiec Nie przesaxziles z AA albo trawą?W zaawansowanych ustawieniach masz coś po włączane?Te 8gb Ramu to mało dla tej gry trochę. Tu może być problem bo brat miał tak samo. Poprawiło się jak dokupił druga kość pamięci ustawił jest w dual. Zotac GAMING GeForce RTX 4080 Trinity to karta graficzna wykorzystująca jeden z najpotężniejszych układów na rynku – NVIDIA GeForce RTX 4080. Dzięki temu, że wykorzystuje on najnowszą architekturę marki NVIDIA – Ada Lovelace, karta jest w stanie zachwycać niezrównanymi osiągami w grach i pracy kreatywnej.
Karty graficzne (GPU) są wykorzystywane w procesie kopania kryptowalut od lat, sektor kryptowalut odnotowuje najwyższe wskaźniki adopcji w historii, Ale wielu zaczyna się zastanawiać – czy kopanie kryptowalut się opłaca pod koniec 2021 roku? I czy koparki Bitcoinów to jedyne wyjście? W końcu zmienność krypto jest nadal bardzo wysoka i prawdopodobnie jeszcze długo tak pozostanie. Mimo to eksperci uważają, że rok 2021 może być jak dotąd najbardziej rentownym rokiem dla kryptowalut. Zwłaszcza, że koparka GPU to całkiem wszechstronne urządzenie. A jaka karta graficzna do kopania nada się najlepiej? Oczywiście nie robimy tego poradnika dla dużych korporacji, które mogą sobie pozwolić na inwestowanie milionów w kopanie kryptowalut i kupowanie układów ASIC typu dedykowana koparka Bitcoin o wartości dziesiątek tysięcy złotych za sztukę. Zresztą najlepsze karty do kopania kryptowalut w 2021 roku też do tanich nie należą. Zamiast tego zastanowimy się nad cechami, jakie musi mieć najlepsza karta graficzna do kopania kryptowalut, dzięki czemu osoby prywatne mogą samodzielnie, w domowym zaciszu dołączyć do grona „górników krypto” i stać się częścią jednej z pul wydobywczych czy usług oferujących programy do kopania kryptowalut jak GamerHash czy NiceHash. Sponsorowane Sponsorowane Kopanie kryptowalut na własnym komputerze jest czymś, co wielu uważa za przeszłość, ponieważ trudność wydobycia kryptowalut wzrosła, gdy ludzie zaczęli dołączać do branży w większej liczbie. Również produkowane koparki Bitcoinów ciągle zwiększają moc. Oczywiście dotyczy to przede wszystkim największych monet, w tym samego Bitcoina. Tymczasem istnieją setki altcoinów, które można nadal skutecznie kopać i nawet “stara” koparka i grafika wystarczy, aby zarabiać, bez potrzeby zakupu droższej, dedykowanej koparki kryptowalut z najnowszymi GPU. Mając to na uwadze, postanowiliśmy wymienić potencjalnie najlepsze karty graficzne do kopania krypto w 2021 r., dla tych, którzy są zainteresowani dołączeniem do tej branży, bo trwający okres rok po halvingu Bitcoina jest przez wielu analityków określany jako kolejny punkt zwrotny rynku krypto. Sponsorowane Sponsorowane Karty graficzne do kopania kryptowalut – o czym myśleć przy wyborze Zanim zaczniemy omawiać karty grafiki do kopania i analizować ich funkcje, warto wiedzieć, które aspekty są najważniejsze, jeśli chodzi o wydobycie. Dajemy kilka wskazówek, na co zwrócić uwagę i jak ocenić przydatność karty GPU do kopania przed dokonaniem zakupu. Jest tu kilka czynników, które należy rozważyć, a mianowicie: Cena karty graficznej do kopania Jak zapewne wiesz, kopanie kryptowalut może być dość drogie, ponieważ wymaga dużej ilości zasobów. Energia elektryczna jest zużywana w ogromnych ilościach, a trudność wydobycia rośnie wraz z każdą dołączającą się do kopania osobą, co oznacza, że ​​również potrzebna jest duża moc obliczeniowa. Sponsorowane Sponsorowane Biorąc pod uwagę podwyższone koszty, należy pamiętać, że cena karty graficznej do kopania musi być jednym z głównych priorytetów. Aktualnie typowa koparka kryptowalut jest budowana na bazie kilku procesorów graficznych, aby mieć większą moc i zarobki. Koszt każdej karty graficznej może być różny i to Ty decydujesz, ile chcesz i możesz wydać. Ceny wahają się od 1000 zł za bardzo przeciętną, używaną kartę aż do nawet kilkunastu tysięcy złotych za topowy sprzęt GPU. Kiedy karty graficzne będą tańsze? Na razie nie zapowiada się na normalizację cen GPU. Najlepszym rozwiązaniem byłoby wybranie tych modeli ze środkowej półki. W ten sposób nie zapłacisz za dużo, ale karta graficzna Nvidia czy AMD to raczej będzie porządny produkt, który pozwoli na zadowalającą efektywność. Sponsorowane Sponsorowane Pobór prądu karty do kopania Jak wspomniano, zużycie prądu jest dużym problemem, a im więcej energii jest zużywane, tym więcej ciepła powstaje podczas kopania. Oba te problemy można kontrolować po prostu nie używając procesora graficznego o dużej mocy w watach. Wybierz kartę graficzną o niższej lub średniej mocy, jeśli nie chcesz przejmować się tymi problemami, lub wydaj dodatkowe pieniądze na zaawansowaną technologię chłodzenia. Należy jednak pamiętać, że będzie to oznaczać, że moc haszująca takiej karty (hash rate) będzie odpowiednio niższa, a zatem zyski również nie będą tak spektakularne. Hashrate – moc karty graficznej do kopania kryptowalut Jak już jesteśmy przy temacie mocy obliczeniowej, jest to również bardzo ważny czynnik, od którego zależy skuteczność, z jaką karta graficzna kopie krypto. Typ GPU i algorytm, z którego korzysta moneta, są również ważnymi czynnikami. Sponsorowane Sponsorowane A zatem, jeśli nie masz planu kopania konkretnej monety, prawdopodobnie najlepiej byłoby kupić kartę graficzną o wysokiej ogólnej mocy obliczeniowej, co uczyniłoby ją użyteczną dla znacznie szerszego spektrum algorytmów haszujących. Jak sprawdzić moc obliczeniową karty graficznej? Np. z pomocą serwisu Koparka GPU to wybór, dzięki któremu nie będziesz musiał ograniczać się do jednej monety i algorytmu, będziesz mieć też możliwość przejścia na kopanie nowych altcoinów, jeśli tylko zechcesz. Gwarancja – czy karty po kopaniu kryptowalut to dobry pomysł? Gwarancja jest również czymś, o czym należy pamiętać. Żeby było jasne – samo kopanie kryptowalut nie uszkodzi karty graficznej bardziej niż granie lub inne wysokowydajne zadania. Karta graficzna po kopaniu do komputera stacjonarnego to nie zawsze zły wybór – zależy, jak była traktowana w kopalni kryptowalut. Jednak karta graficzna będzie musiała działać pod stałym obciążeniem tak długo, jak zdecydujesz się kopać, więc zaleca się wybranie długiej gwarancji, co najmniej na 2 lata, dla zachowania bezpieczeństwa. W końcu, jeśli coś się stanie, nie chcesz zmarnować swoich pieniędzy. Przy kartach używanych warto znaleźć grafiki jeszcze z gwarancją. Karty graficzne do kopania kryptowalut – podkręcanie Podkręcanie karty graficznej do kopania krypto jest również czymś, na co warto zwrócić uwagę, ponieważ wiele koparek GPU do miningu można skonfigurować, aby działały szybciej, czasem nawet o 20-30%. Ponadto, optymalizacja karty może zmniejszyć również zużycie prądu. Jaka karta graficzna do koparki w 2021? Karty graficzne do kopania będą bardziej wydajne i zwiększą szansę na znalezienie bloku, co z kolei gwarantuje większą część z nagrody. Mając to na uwadze, poczytaj o możliwości podkręcania kart graficznych i wybierz ten, który da sobie radę w overclockingu. Gdy interesuje Cię zoptymalizowana koparka, grafika po prostu musi być odpowiednio podkręcona. Są oczywiście inne, mniej istotne czynniki, które mogą wpływać na twoją wydajność jako krypto-górnika, ale powyższe to najważniejsze rzeczy, na które należy zwrócić uwagę. Teraz zobaczmy zestawienie porównujące karty graficzne do kopania kryptowalut w 2021 roku. Najlepsza karta graficzna do kopania krypto Ranking kart graficznych zacznijmy od jednego z najlepszych wyborów zarówno do grania, jak i kopania kryptowalut: 1) Nvidia RTX 3080 Zalety Nvidia RTX 3080: Ta karta jest bestią wśród kart graficznych. Może osiągnąć imponujące 96 Mh/s, co czyni ją znacznie potężniejszą niż reszta kart na naszej liście. Może to być dodatkową korzyścią, ponieważ często posiadanie mniejszej liczby mocniejszych kart w jednym zestawie może być mniej skomplikowane i kosztowne w konfiguracji niż wiele kart na wielu platformach. Model 3080 byłby idealnym wyborem dla platformy, w której głównym problemem jest przestrzeń i wytwarzanie ciepła. Wady Nvidia RTX 3080: Największą od razu jest cena. Tak, ta grafika może wypracować świetny wynik hashrate, ale przy wysokiej cenie, może zająć trochę czasu, aby uzyskać zwrot z inwestycji. We wrześniu 2021 można ją znaleźć za 6500 pobiera również znaczną moc, 320 watów, co również należy wziąć pod uwagę przy wyborze karty graficznej do swojej koparki GPU. 2) Karty graficzne do kopania – Nvidia RTX 3070 Zalety Nvidia RTX 3070: Chociaż nadal jest to dobry wybór, model 3070 nie jest oczywiście tak wydajny jak 3080. Udaje mu się wciąż zapewnić solidne 60 Mh/ mocy tutaj jest nieco skromniejszy na poziomie 220 watów. Największym plusem jest tutaj pomiar ceny do jakości, co jest dużym motywatorem do składania koparek na tych kartach. Wady Nvidia RTX 3070: Głównym minusem modelu 3070 nie jest sama karta. Bardziej chodzi o to, że następna karta, o której będziemy mówić, jest równie potężna, ale znacznie tańsza. RTX 3070 to we wrześniu 2021 wydatek rzędu 4800 złotych. 3) Karta do kopania kryptowalut – Nvidia RTX 3060 Ti Zalety Nvidia RTX 3060 Ti: Najlepszą rzeczą w 3060 Ti jest to, że daje nam praktycznie taką samą prękość kopania jak 3070, oraz pobiera jedyne 200 watów. Wady Nvidia RTX 3060 Ti: W dniu publikacji karta jest dostępna, ale warto zaczekać z kupnem, poniważ ceny spadają cotygodniowo. Górnicy wiedzą co dobre i wykupują karty na bieżąco po rozsądnych cenach. W chwili obecnej (wrzesień 2021) cena to około 3500 PLN. 4) Nvidia GTX 1660 6GB Ti GTX 1660 6GB, już nieco starsza karta graficzna do kopania, która wykorzystuje pamięć DDR6. Dla niektórych jest to dobra opcja budżetowa, ponieważ te karty można znaleźć za ok. 2000 PLN, a zużywają one znacznie mniej energii na poziomie zaledwie 86 watów. Po prostu wymieniamy GTX 1660 jako kolejny świetny wybór ze względu na liczne aspekty, które mogą okazać się solidnym zestawem dla początkujących górników. Istnieje również wersja Super oraz “zwykła”, o nieco niższych osiągach (ale i cenie). A zatem, tak jak wspominamy, wszystko zależy od naszych ambicji, możliwości lokalowych i przede wszystkim budżetu. Zalety Nvidia GTX 1660 6GB Ti: Tym, co górnicy uwielbiają najbardziej w tym GPU, jest to, że cechuje go względnie niska cena. Można go używać do kopania szerokiej gamy algorytmów proof of work, co jest jedną ze wspólnych zalet procesorów graficznych zaletą jest to, że karta nie zużywa góry prądu, jak to robi wiele innych układów GPU na rynku. Wady Nvidia GTX 1660 6GB Ti: Jedną z rzeczy, której górnicy nie lubią w tej karcie, jest fakt, że ma ona tylko 6 GB, co sprawia, że ​​nie jest w stanie poradzić sobie z niektórymi algorytmami wydobywczymi, które wymagają 8 GB pamięci. Mimo to ma dobrą moc haszującą; produkuje mało ciepła, a jako procesor graficzny Nvidia łatwo go podkręcić. Świetnie radzi sobie również w grach porównaniu z nowszymi kartami, hashrate na poziomie 21 Mh/s jest dosyć miernym wynikiem. Najlepsze GPU od AMD do kopania kryptowalut 5) AMD RX 6800 i 6800 XT Zalety AMD RX 6800: RX 6800 i 6800 XT to solidny wybór spośród procesorów GPU od AMD. W przypadku, gdy interesuje Cię koparka GPU, prawdopodobnie będziesz chciał pozostać przy 6800, ponieważ XT jest nieco droższy, a oferuje zasadniczo tę samą wydajność. Około 60 Mh/s przy 167 watów sprawia, że ta karta nie jest ani najlepsza, ani najmniej wydajna na tej liście, a zatem może stanowić dobry wybór w zależności od konfiguracji. Wady AMD RX 6800 / XT: Karty te są względnie drogie (ponad 6000 PLN w chwili pisania artykułu), a oferują wydajność podobną lub nieco niższą niż odpowiedniki od NVidii w tej cenie (przynajmniej w algorytmie Ethash). Może to nie być preferowany wybór, a lepszą ofertą może okazać się teoretycznie starszy… 6) Karta do kopania AMD Radeon VII Teraz opisujemy sprzęt do kopania krypto, który wielu nazwałoby po prostu najlepszą kartą graficzną AMD – Radeona VII. Jest to karta, która wzniosła AMD na zupełnie nowy poziom, jeśli chodzi o kopanie kryptowalut na komputerze, ponieważ zapewnia ogromny hashrate – 90 MH/s i to bez żadnego podkręcania. Niestety, jest trudno dostępna, właściwie aktualnie jedynie z drugiej ręki – zatem trzeba uważać na zużyte karty graficzne po koparkach kryptowalut. Zalety AMD Radeon VII: Jest to jedna z najpotężniejszych dostępnych kart, z podstawowym taktowaniem rdzenia 1400 MHz i 16 GB pamięci, z przepustowością pamięci 5 Gb/s. Oczywiście, jego ogromna moc wymaga również dużej ilości prądu, aby działała, dlatego koparka z tą grafiką nie powinna być używana bez odpowiedniego chodzi o pobór mocy, sięga on 300 W, co może być zbyt duże dla niektórych użytkowników, szczególnie ze względu na niestabilny charakter cen kryptowalut i rosnące koszty energii jednak wiesz, co robisz, ta karta prawdopodobnie pomoże Ci wygenerować więcej niż przyzwoity zysk, ale kosztem wyższych wydatków. Ostatecznie decyzja należy do Ciebie, a Radeon VII może być tym, czego szukasz. Wady AMD Radeon VII: Droższy niż inne propozycje na liście. I właściwie niedostępny 7) AMD RX Vega 64 RX Vega 64 to procesor graficzny AMD, który został wydany w połowie 2017 roku, ale nadal jest uważany za jeden z najlepszych procesorów graficznych do kopania algorytmu Cryptonight i pochodnych. Jest to istotna kwestia w przypadku kart AMD – ponieważ procesory graficzne Nvidia mają zdolność do obsługi większej liczby algorytmów, AMD oferuje karty, które obsługują ich mniej, ale za to ich moc jest nieporównywalnie lepsza od konkurencji. Zalety AMD RX Vega 64: Możesz osiągać doskonałe zyski, zwłaszcza jeśli zdecydujesz się wydobywać monety takie jak kryptowaluta prywatna Monero (XMR), która jest jedną z najpopularniejszych krypto dla osób ceniących anonimowość. Jeśli jednak nie interesuje Cię XMR, warto zauważyć, że ta karta jest również jednym z najlepszych procesorów graficznych do wydobywania Ethereum (ETH), która jest największym altcoinem na świecie pod względem kapitalizacji ma 8 GB pamięci, a jej koszt jest podobny GTX 1070 Nvidii. Warto również zauważyć, że większość innych kart graficznych AMD, które działają w architekturze Polaris, często borykają się z problemem spadku mocy haszującej. Nie dzieje się tak w przypadku Vegi 64, która pozostaje stabilna podczas całego procesu kopania kryptowalut na go także łatwo przetaktować, uzyskując jeszcze lepsze efekty. Wady AMD RX Vega 64: Grafika ta jest wrażliwa na przegrzanie, dlatego musisz zachować ostrożność przy podkręcaniu, a najlepiej zrobić to tylko wtedy, gdy naprawdę wiesz, co robisz. 8) AMD RX 5600 XT Ostatnia grafika na naszej liście, ale na pewno nie najsłabsza. Prezentujemy kolejną kartę graficzną, którą wielu uważa za doskonały wybór na kopanie kryptowalut: AMD RX 5600 XT. Zalety AMD RX 5600 XT: Tutaj znowu mamy kartę, która bardziej pasuje do kupujących z ograniczonym budżetem. Jego hash rate ponad 37 Mh/s sprawia, że może się okazać lepszym wyborem niż GTX 1660 Ti wymieniony powyżej. Chociaż kosztuje o ok. 1000 złotych więcej od wyżej wymienionej. Może to być ważny czynnik dla niektórych górników. Wady AMD RX 5600 XT: Wyższa moc wydobywcza oznacza również większe zużycie energii, a tym samym większe rachunki. Jednak pobór 150 watów nie jest aż tak wysoki, aby przyćmić jej zalety, a stosunek kosztów do wydajności jest nadal dość dobrze zrównoważony. Oznacza to, że możesz z niej korzystać i nadal być w stanie pozwolić sobie na powiększanie zysków po otrzymaniu nagród za blok. Wnioski W ten sposób zakończyliśmy nasze krótkie porównanie kart graficznych do kopania kryptowalut w 2021 roku. Jak widać, na rynku jest dość szeroki wybór i przedstawiliśmy tylko niektóre opcje. Być może warto rozważyć także Radeona 5700 XT, którego stosunek ceny do jakości jest także bardzo dobry, jednak dostępność jest niewielka. Pamiętajmy, że chociaż kopanie Bitcoina GPU czy CPU to już przeszłość, świat kryptowalut oferuje wiele interesujących altcoinów opartych o rozmaite algorytmy kopania proof-of-work. Koparki Bitcoinów to już też raczej zysk dla wielkich kopalni. Decydując się jednak na kopanie jakiejś niszowej kryptowaluty alternatywnej, sprawdzić należy jej płynność oraz dostępność na chociaż jednej, nieco bardziej popularnej giełdzie. Może niekoniecznie na Binance czy FTX, ale chociażby na KuCoin, OKEx czy Hotbicie. O swoich planach i znaleziskach zawsze zachęcamy do rozmowy na naszym kanale na Telegramie BeInCrypto Wszystkie informacje zawarte na naszej stronie internetowej są publikowane w dobrej wierze i wyłącznie w ogólnych celach informacyjnych. Wszelkie działania podejmowane przez czytelnika w związku z informacjami znajdującymi się na naszej stronie internetowej odbywają się wyłącznie na jego własne ryzyko. W dziale Edukacja, naszym priorytetem jest dostarczanie najwyższej jakości sprawdzonych informacji. Poświęcamy czas na identyfikację, badanie i tworzenie treści edukacyjnych, które są przydatne dla naszych czytelników. Aby utrzymać ten standard i nadal tworzyć niesamowite treści, nasi partnerzy mogą nagradzać nas prowizją za miejsca w naszych artykułach. Jednak te prowizje, w żaden sposób, nie wpływają na nasze procesy tworzenia bezstronnych, uczciwych i pomocnych treści.
RTV. Ciekawostki. Firma. AGD. Filmy / Seriale / VOD. Szukaj w serwisie. Twój profil. GeForce RTX 3080 zapowiadał się jako karta graficzna marzenie. Okazuje się, że w praktyce nie wygląda to tak pięknie, bo użytkownicy coraz częściej zgłaszają problemy z działaniem nowych modeli.

Please add exception to AdBlock for If you watch the ads, you support portal and users. Thank you very much for proposing a new subject! After verifying you will receive points! lukiaszek1272 03 Jan 2020 03:56 180 #1 03 Jan 2020 03:56 lukiaszek1272 lukiaszek1272 Level 2 #1 03 Jan 2020 03:56 Witam, po zakupie nowej karty rx570 4GB mam taki problem że karta jak podaje menedżer zadań wykorzystuje swoje 100% gdzie wykorzystane jest 2GB z 4GB. Helpful post #2 03 Jan 2020 08:39 badboy84 badboy84 Level 42 Helpful post #2 03 Jan 2020 08:39 To nie ma żadnego związku, użycie GPU nie jest zależne od wykorzystania pamięci. Tu nie ma problemu ... #3 03 Jan 2020 10:04 User removed account User removed account Level 1 #3 03 Jan 2020 10:04 Badboy ma rację, W jakiej rozdzielczości grasz, jakie ustawienia, jakie gry? #4 03 Jan 2020 12:13 lukiaszek1272 lukiaszek1272 Level 2 #4 03 Jan 2020 12:13 Tomequ123 wrote: Badboy ma rację, W jakiej rozdzielczości grasz, jakie ustawienia, jakie gry? Przykładowo BF Bad Company 2 Ustawienia ultra + 1920×1080 Helpful post #5 03 Jan 2020 12:32 User removed account User removed account Level 1 Helpful post #5 03 Jan 2020 12:32 No to o czym my mówimy. Włącz grę AAA z 2014+ na Ultra, to zobaczysz 4GB. #6 03 Jan 2020 13:00 lukiaszek1272 lukiaszek1272 Level 2

Przyczyn może być kilka ale trzeba wszystkie wyeliminować. Zacząłbym od porządnego zainstalowania systemu windows 10 na czysto. Autor pisze że został zrobiony upgrade płyty głównej karty graficznej procesora i ramu. A dysk twardy został. Najzwyczajniej w serwisie nie stawiali systemu tylko zrobili aktualizację i święto. To
Dlaczego odpowiedni dobór CPU do GPU jest tak ważny? Procesor, czyli centralna jednostka obliczeniowa (CPU – ang. Central Processing Unit), często określany jest mianem serca i mózgu komputera (i nie tylko komputera). Odgrywa on ważną rolę, ponieważ bez niego dane urządzenie nie mogłoby działać. Analizuje i przetwarza informacje, a także wykonuje obliczenia (dowiedz się więcej o tym, jak działa procesor). A w grach? Odpowiada za np. ustalanie pozycji postaci i elementów otoczenia czy liczy każdy ruch przeciwników i pojazdów. Właściwe dopasowanie CPU do karty graficznej (GPU – ang. Graphics Processing Unit) jest kluczowe, ponieważ te komponenty mają największe przełożenie na wydajność naszego komputera. Zły wybór procesora nie pozwoli rozwinąć skrzydeł karcie graficznej, a co za tym idzie – w grach nie uda się osiągnąć odpowiednio wysokiej liczby klatek (fps – ang. frames per second). To z kolei istotnie przekłada się na komfort rozgrywki. Jeśli CPU wysyła zbyt wolno instrukcje do GPU, ten drugi komponent odpowiedzialny za wyświetlanie obrazu, który widzisz na ekranie, musi czekać na kolejny, jakże zbawienny zestaw danych, po prostu nudząc się jak mops. Jest to cel, do którego zdecydowanie nikt nie powinien dążyć. Wbrew pozorom dopasowanie tych podzespołów może być trudniejsze, niż się wydaje. Producenci procesorów zasypują potencjalnych konsumentów licznymi modelami, by mieli oni z czego wybierać. Parafrazując jednak inne, nie mniej znane przysłowie – od przybytku głowa może jednak zaboleć. Dlatego w tym poradniku przybliżymy, na co zwracać uwagę, by mądrze dobrać procesor do karty graficznej. Odpowiemy także na mniej oczywiste pytania, takie jak: czy nie do końca udanie dopasowany tandem ma sens? Jeśli Twój głód wiedzy nie został zaspokojony, więcej informacji o procesorach i kartach graficznych znajdziesz w naszych poradnikach o tym, jak wybrać CPU i GPU. Ułatwią one dopasowanie tych komponentów. Poza tym stanowią dobry punkt wyjścia do niniejszego poradnika. Jak wybrać procesor? Co trzeba wiedzieć o CPU? Jaką kartę graficzną wybrać? Która jest najlepsza? Bottleneck – czym jest? Jak go uniknąć? Zanim przejdziemy do sedna tematu, najpierw wypadałoby odpowiedzieć na zadane pytanie. Odpowiedź na nie jest niezwykle istotna, bo nierozerwalnie wiąże się CPU i GPU oraz odpowiednim doborem tych (i nie tylko tych) komponentów. Bottleneck powstaje wtedy, gdy jeden z podzespołów ogranicza drugi. Wyobraź sobie, że masz szybki samochód, ale przez wbudowany układ ogranicznika prędkości do stosunkowo niskich wartości nie będziesz w stanie poczuć jego mocy. Innymi słowy – nie rozpędzi się tak, jakby mógł rozpędzić się na dobrej autostradzie. Analogicznie jest w połączeniu procesora i karty graficznej, w przypadku którego jeden układ może wyhamowywać drugi. Gdy dobierzesz zbyt słabe CPU do GPU, nie poznasz prawdziwego potencjału tego drugiego komponentu, ponieważ dostosuje się on do pierwszego. Tym samym procesor stanie się rzeczonym ogranicznikiem prędkości. Co czeka kartę graficzną w takim towarzystwie? Dopóki nie wymienisz procesora na wydajniejszy, dopóty będzie się ona marnować nieustannie, a gracz może cierpieć katusze podczas grania. To właśnie w przypadku złego połączenia dochodzi do tzw. bottlenecku, czyli wąskiego gardła, które przytacza się w światku komputerowym najczęściej w kontekście zestawiania CPU i GPU. Co zrobić, by nie dopuścić do tej sytuacji? Czy wystarczy prosta rada: „nie kupuj procesora za 500 zł do karty graficznej wartej 4000 zł”? Takie połączenie nawet na chłopski rozum nie ma większego sensu, ale temat wymaga szerszego rozwinięcia. Zjawisko bottlenecku, które odnosi się nie tylko do CPU i GPU, bo problem może stanowić np. pamięć RAM, jest też ściśle powiązane z grami. Co to znaczy? W tych tytułach, które polegają głównie na mocy karty graficznej, możesz nie odczuć efektu wąskiego gardła, ponieważ wydajność nie jest w nich zależna od procesora albo jest, ale w niewielkim stopniu lub tylko w wybranych lokacjach. Jak może objawiać się bottleneck ze strony CPU? Możesz uświadczyć podczas rozgrywki w grach drastyczne spadki płynności animacji, zwłaszcza w miejscach zależnych od procesora. Karta graficzna może ogólnie oferować niedostateczną lub bardzo nierówną wydajność, jak na swoje możliwości. Wiesz już, że wystąpienie zjawiska bottlenecku ze strony procesora w jednej grze nie musi przełożyć się na ten sam efekt w innej. Co możemy w takim razie zrobić z tą wiedzą? Jak zminimalizować efekty wąskiego gardła? Przejdźmy do najważniejszej części, która szerzej odpowie na nurtujące pytanie: jak uniknąć bottlenecku? Co wziąć pod uwagę przy wyborze procesora i karty graficznej? Zanim zdecydujesz się na odpowiedni procesor do swojej lub planowanej karty graficznej, koniecznie weź pod uwagę kilka czynników. To one zadecydują o tym, jakie CPU będzie najlepsze do Twojego zestawu komputerowego, by nie wyhamowywał on odczuwalnie – albo najlepiej wcale – wydajności GPU. Jakie czynniki są najważniejsze przy doborze CPU do GPU? Przede wszystkim warto zadać samemu sobie kilka pytań: Do czego służy Ci komputer? Jeśli grasz, to w jakie gry i gatunki? W jakiej rozdzielczości grasz? Jakie odświeżanie (w Hz) ma Twój monitor i do jakiego poziomu fps dążysz? Komputer do gier czy nie do gier? Jaki wybrać procesor do gier? To pierwsze pytanie, na które musisz sobie odpowiedzieć. W końcu dobór podzespołów nie musi być uniwersalny. Wszystko zależy od tego, do czego będzie wykorzystywany komputer. Można jednak tak dopasować komponenty, by dobrze spisywały się zarówno w (nowych) grach, jak i np. w streamingu czy w montażu filmów. Obecnie do gier wystarczają 6-rdzeniowe (i najlepiej 12-wątkowe) CPU, ale to, że w konsolach PS5 i Xbox Series X/S znajduje się 8-rdzeniowa i 16-wątkowa jednostka, może przełożyć się w przyszłości na lepsze wykorzystanie większej liczby rdzeni. Przy czym miej na uwadze, że procesor procesorowi nierówny. Zmiany i postęp w architekturze mają duży wpływ na wydajność i na to, czy połączenie z danym GPU będzie (mniej lub bardziej) udane. Dowodem na potwierdzenie tych słów będzie procesor AMD Ryzen 5 1600X (Zen) z 2017 roku, który ma tyle samo rdzeni i wątków, co wydany w 2020 roku Ryzen 5 5600X (Zen 3). Mimo to może „dławić” nowsze i (naj)wydajniejsze karty graficzne, bo jego moc wyraźnie odstaje od nowocześniejszego CPU. W grach bardziej liczą się rdzenie fizyczne, dlatego lepszy będzie procesor 6-rdzeniowy i 6-wątkowy niż 4-rdzeniowy i 8-wątkowy. Nawet współczesne jednostki 4-rdzeniowe i 8-wątkowe będą ograniczać wydajną kartę graficzną (i to starszą niż mocne modele z serii RTX 3000 i RX 6000) – nie tylko w 1080p, ale także często w 1440p, a w niektórych produkcjach nawet w 4K. Jeśli grasz, odpowiedz sobie jeszcze na pytanie: czy streamujesz podczas grania? Tak? W takim razie inwestycja w wydajny procesor w wieloma rdzeniami ma jeszcze więcej sensu. Jakie połączenie CPU i GPU do zastosowań biurowych i (pół)profesjonalnych? Co, jeśli komputer nie ma służyć do gier? Procesor do komputerowego biurowego ma większe znaczenie niż karta graficzna. W tym przypadku ten drugi podzespół zwykle stanowi zintegrowany układ, mimo że system operacyjny Windows coraz bardziej wykorzystuje (i)GPU. Gdy procesor nie ma wbudowanej karty, do prostych zadań biurowych możesz wybrać najtańszy model z rodziny GeForce lub Radeon. Procesor do prostych zadań biurowych, przeglądania internetu czy odtwarzania filmów nie musi być mocny. W zupełności wystarczą tanie modele pokroju Intel Celeron, Pentium, Core i3 lub AMD Athlon czy Ryzen 3 (w przypadku „czerwonych” najlepiej APU ze zintegrowaną grafiką). Do nieco bardziej wymagającego sprzętowo oprogramowania lub np. użytkowania wielu aplikacji naraz może przydać się mocniejsza jednostka (np. Intel Core i5 lub AMD Ryzen 5), ale nie potrzebujesz do tego topowego modelu z odblokowanym mnożnikiem (np. seria K od Intela) i flagowego GPU za kilka tysięcy złotych. Do zastosowań (pół)profesjonalnych, takich jak renderowanie, grafika, montaż filmów, procesor – najlepiej z dużą liczbą rdzeni i wątków – zyskuje jeszcze bardziej na znaczeniu, podobnie jak karta graficzna, ale jest to zależne od tego, czym się zajmujesz. Do najbardziej wymagających zadań, takich jak CAD/CAM, możesz wybrać stworzony z myślą o środowisku profesjonalnym procesor, np. AMD Threadripper, który połączysz z układem graficznym RTX Quadro lub Radeon Pro. W jakie gry (gatunki) grasz? Co jeśli procesor i karta graficzna mają służyć przede wszystkim do gier? Czy grasz w nowe czy stare gry? W jakie gatunki grasz? Czy są to strategie, produkcje niezależne (tzw. indie), przygodówki czy może nowoczesne RPG-i, strzelanki albo tytuły nastawione na kooperację i rozgrywkę sieciową? Wymóg co do podzespołów jest zależny od gier i gatunków, dlatego warto przeanalizować, w co grasz i w co zamierzasz grać. Może w końcu być tak, że po prostu dotychczasowy komputer – niezależnie od tego, czy ograniczenie stanowi CPU, czy GPU – uniemożliwia Ci rozgrywkę w nowości, a nie chcesz się ograniczać w przyszłości do samych „staroci”. Trzeba te czynniki wziąć koniecznie pod uwagę. Do np. izometrycznych RPG-ów, które przywodzą na myśl klasyki gatunku, nie potrzeba (zwykle) tak mocnego CPU i GPU, jak do produkcji klasy AAA. Po co więc inwestować w Core i9 albo Ryzena 9? Inaczej będzie, gdy chcesz grać z możliwie najwyższym fps i ustawieniami graficznymi, włącznie z ray tracingiem, wtedy wybór topowych jednostek ma jak najbardziej sens. Czy procesor przestaje mieć znaczenie w grach? Co jeszcze warto wiedzieć? Prawda jest taka, że współczesne gry w coraz bardziej wykorzystują moc karty graficznej, a procesor często schodzi na drugi plan. Wyjątkiem są chociażby strategie pokroju serii Total War i Civilization czy tytuły e-sportowe, takie jak CS:GO (Counter-Strike: Global Offensive) i LoL (League of Legends), które bardzo mocno wykorzystują moc jednego rdzenia. Z kolei na wielordzeniowość – i ogólnie moc procesora – stawiają gry wieloosobowe z duża liczbą postaci na ekranie, czyli doskonałym przykładem będzie seria Battlefield. Z kolei do Rainbow Six: Siege nawet nie najnowszy 6-rdzeniowiec jest w zupełności wystarczający. Do gry Ubisoftu warto też zainwestować w wydajniejszą kartę graficzną. Nie oznacza to jednak, że CPU przestaje mieć jakiekolwiek znaczenie, bo tak nie jest. W wielu grach, w tym tych z otwartym światem, nadal wymagana jest dość szybka jednostka, która będzie dobrze współpracować z kartą graficzną, zapewniając odpowiednio wysoką wydajność. Nowe produkcje zaczynają też stopniowo wykorzystywać lepiej więcej rdzeni i wątków, więc ich zbyt mała liczba może skutkować efektem wąskiego gardła. Miej tylko na uwadze, że wydajność procesora nie jest zależna tylko od mocy i liczby rdzeni (wątków), ale także od częstotliwości taktowań, ilości pamięci cache czy pamięci RAM. Połączenie z kartą graficzną jest tak ważne, bo GPU będzie tak szybkie, na ile pozwoli CPU. Czy rozdzielczość ma znaczenie przy wyborze procesora i jak duże? Owszem, ma bardzo duże. Im wyższa rozdzielczość, tym procesor traci na znaczeniu. Wówczas możesz pozwolić sobie na dobór słabszego CPU do mocniejszego GPU. Ale nawet w rozdzielczościach 1440p (2560 x 1440 pikseli) i 4K (3840 x 2160 pikseli) procesor nadal jest dość ważny, szczególnie w tej pierwszej. Nie może dzielić tych podzespołów zbyt wielka przepaść. W takim scenariuszu CPU też może okazać się zbyt wolne, by nadążyć za mocnym GPU. W rozdzielczości 1080p (lub niższej) procesor gra pierwsze skrzypce – kieruj się wtedy rozsądkiem. Wówczas karta graficzna nie musi być z topowej półki wydajnościowej, bo i tak nie wykorzystasz w pełni jej mocy. Ona pokaże pełny potencjał dopiero w wyższych rozdzielczościach. Jeśli grasz w Full HD, lepiej wybierz nieco słabszą kartę graficzną, zamiast łączyć tanie, niezbyt wydajne CPU z bardzo mocnym GPU, które sprawdza się przede wszystkim w wysokich rozdzielczościach. W Full HD, aby w pełni wykorzystać potencjał najmocniejszych kart graficznych – czasem nawet w 1440p – może nie wystarczyć nawet Intel Core i9 i AMD Ryzen 9, czyli flagowe jednostki CPU. Warto wówczas pokusić się o OC (podkręcenie) procesora i/lub RAM-u, ewentualnie zakup szybszych pamięci (do tego, jak są one istotne w odniesieniu do procesora, jeszcze wrócimy). Gdy masz monitor o wysokiej częstotliwości odświeżania obrazu (np. 144, 240 lub więcej Hz) i przedkładasz wydajność nad rozdzielczość, to wtedy również pomyśl o mocniejszym procesorze. Takim, który będzie w stanie dorównać szybkością karcie graficznej. Ona w końcu musi też być z wysokiej półki, bo inaczej nie uzyska się odpowiednio dużej liczby fps (przynajmniej w nowościach). Dopiero te dwa dobrze połączone ze sobą komponenty (trzy, jeśli wliczymy także RAM) zaowocują wysoką płynnością animacji i wykorzystaniem możliwości wysokohercowego monitora. W przypadku gier e-sportowych nie potrzebujesz najmocniejszych jednostek, ale gdy chcesz cieszyć się w najbardziej wymagających grach bardzo wysokim fps i najwyższymi detalami w 1080p, wybierz topowe modele zarówno CPU i GPU. Jak wygląda sytuacja w wysokich rozdzielczościach? Różnica między np. Ryzenem 5 2600X (druga generacja Zen) a Ryzenem 5 5600X (czwarta generacja Zen) może się zacierać. Dotyczy to głównie 4K (w 1440p możesz odczuć znaczną poprawę), gdzie wybór mocniejszego procesora może nie być uzasadniony. Limit bowiem osiąga w takim scenariuszu GPU. Wątek ten można podsumować krótko: wolniejszy procesor lepiej sprawdza się w 4K niż w Full HD. Czy tylko rozdzielczość ma znaczenie w kontekście CPU? Znaczenie ma nie tylko rozdzielczość, ale także wiele ustawień graficznych. Im wyższe detale ustawisz, tym CPU odegra mniejszą rolę. Wtedy więcej pracy będzie mieć GPU. Chyba że mowa o tych mocno zależnych od mocy procesora, np. geometrii, LoD (poziom szczegółowości), ilości obiektów, cieni i cząsteczek, zasięgu rysowania, polu widzenia (FOV), gęstości tłumu, roślinności i zasięgu jej widoczności czy opcjach związanych z fizyką. Ich obniżenie może zminimalizować efekt bottlenecku CPU. Jeśli masz potrzebę grać we wszystko w Ultra, budżet przechyl bardziej w stronę GPU niż CPU. Gdy karta graficzna nie będzie już dawać rady, wtedy możesz obniżyć ustawienia graficzne, które najbardziej obciążają ten komponent, by zwiększyć liczbę fps. Do takich opcji zaliczają się wygładzanie krawędzi (antyaliasing), jakość cieni, szczegółowość tekstur, okluzja otoczenia, oświetlenie, odbicia czy efekty postprocesowe. Prócz tego możesz zmniejszyć rozdzielczość. Czy pamięć RAM odgrywa ważną rolę przy wyborze CPU? Tak, nie liczy się tylko ilość (zbyt mała może doprowadzić do tzw. stutteringu i freezów, czyli z ang. ścinek i „zamrożeń obrazu”), ale także odpowiednio szybka pamięć operacyjna (RAM) ze stosunkowo niskimi opóźnieniami. Ma ona wpływ na wydajność procesora. Różnice odczujesz przede wszystkim w grach wykorzystujących głównie moc CPU i w rozdzielczościach do 1080p. W wyższych różnice w wydajności mogą być niewielkie (1440p) albo wręcz marginalne (2160p). Weź pod uwagę, że nie zawsze najszybsze pamięci to najlepszy wybór. Często przekroczenie pewnej granicy nie daje już tak znaczących rezultatów i nie warto dopłacać do pamięci np. powyżej 3600 MHz. Do współczesnych procesorów wystarczy zazwyczaj RAM DDR4 w trybie dual-channel pracujący z częstotliwością 3200 MHz i opóźnieniami CL 14-16. Pamięci poniżej 3000 MHz mogą ograniczać wydajność. Odpowiednie szybka pamięć operacyjna może zmniejszyć efekt wąskiego gardła w tych lokacjach gier, w których może on występować. Czyli? W miejscach, w których najbardziej liczy się wydajność procesora. Szczególnie wyraźne różnice mogą wystąpić pomiędzy pamięciami w trybie dual-channel a jedną kością (tzw. single-channel). Jaki RAM do laptopa, a jaki do desktopa? Doradzamy wybór pamięci Jak sprawdzić, czy procesor nie ogranicza karty graficznej? Najprościej byłoby wyposażyć komputer w nową kartę graficzną. Jeśli przyrost klatek na sekundę będzie w grach niewielki albo wręcz zerowy po jej wymianie, to wniosek nasuwa się sam. CPU najpewniej jest zbyt słabe, by napędzić GPU. Taka wymiana okaże się tylko stratą pieniędzy. Wiemy jednak, że nie każdy może sobie na to pozwolić, dlatego przedstawimy kilka sposobów, które pomogą rozpoznać bottleneck. Najpierw wyjaśnijmy, czym są miejsca procesorowe, a czym graficzne, bo są one kluczowe, by wykryć, jaki podzespół stanowi wąskie gardło w komputerze. Czym jest miejsce procesorowe? To takie, które wykorzystuje przede wszystkim moc CPU, a więc chociażby duże miasto wypełnione postaciami niezależnymi typu Novigrad i Beauclair z gry Wiedźmin 3: Dziki Gon oraz dodatku Krew i wino, czy pole bitwy w tytułach ze strategicznej serii Total War. W takich miejscach scena zmienia się dynamicznie, bo gracz widzi na ekranie np. wprawione w ruch postacie. Miejsce graficzne, jak możesz się domyślić, polega głównie na wydajności GPU, które nakłada tekstury oraz zajmuje się liczeniem wypełniających daną scenę cieni, rysowaniem rozbudowanej siatki geometrycznej (wstępną zajmuje się procesor) i obróbką każdego piksela. Takie miejsce są często określane statycznymi, w których stosunkowo niewiele się dzieje, ale jest co podziwiać. Przykładem takiego miejsca może być – jeśli pozostaniemy przy Wiedźminie 3 – puszcza niedaleko wsi Ferlund na Skellige. Czy MSI Afterburner pomoże rozpoznać bottleneck? Pomocna w uchwyceniu zjawiska wąskiego gardła może być darmowa aplikacja pokroju MSI Afterburner z dołączanym RivaTuner Statistics Server (RTSS). Pozwala ona na monitorowanie pracy procesora czy karty graficznej na bieżąco w grze. Z poniższego materiału wideo dowiesz się, jak wyświetlić niezbędne dane podczas rozgrywki dzięki MSI Afterburner: Co powie nam stopień obciążenie podzespołów, gdy trafimy do lokacji, w której GPU będzie obciążone zaledwie w 50-60%, a z procesora będą wyciskane ostatnie poty (wskaźnik będzie ciągle informował o niemal maksymalnym obciążeniu)? Albo np. trafiliśmy na miejsce typowo procesorowe, albo wydajność procesora niedomaga. Sprawdź, czy w tych lokacjach dochodzi do drastycznych spadków płynności animacji. Jeśli tak, to, owszem, CPU może stanowić przyczynę problemów z wydajnością. Często jednak sytuacja nie jest tak oczywista. Inny przykład: w miejscu procesorowym danej gry CPU jest obciążone w 60%, a karta graficzna w 97%. Na pierwszy rzut oka wydaje się, że problemu żadnego nie ma. Ale czy na pewno? No właśnie nie. W opisanym scenariuszu procesor również ogranicza wydajność GPU, mimo że wskaźniki tego nam nie mówią. Można nawet źle je odczytać i pomyśleć, że karta graficzna ogranicza wydajność, bo pracuje na pełnych obrotach, a płynność pozostawia wiele do życzenia. Opieranie swoich wniosków wyłącznie na podstawie stopnia obciążenia procesora i karty graficznej jest błędem! Nie można patrzeć na nie bezrefleksyjnie, bo same w sobie mogą nie mieć żadnej wartości. Mogą co najwyżej ułatwić wykrycie podzespołu, który stanowi wąskie gardło. Nie zapominaj, że może być nim także RAM. Wielu użytkowników łączy często nowoczesną jednostkę CPU z wolnymi pamięciami o np. szybkości 2133 czy 2666 MHz, co jest fatalnym pomysłem. Jak wspomnieliśmy, zamiana kości RAM na 3200-3600 MHz może tchnąć nowe życie w procesor, który poradzi sobie lepiej w lokacjach wymagających dużej mocy od tego podzespołu. Czy zmiana rozdzielczości i ustawień graficznych to recepta na wykrycie wąskiego gardła? Warto powyżej opisany sposób połączyć z innymi, co zwiększy prawdopodobieństwo wykrycia bottlenecku. Znaczenie procesora zwiększa się po obniżeniu rozdzielczości i/lub określonych detali. Jeśli zmniejszysz je i nie dadzą one pożądanego wzrostu wydajności, może być to oznaka wąskiego gardła. Może, lecz nie musi. Sporo zależy bowiem od silnika i optymalizacji gry – nie brakuje tytułów, w których zmiana ustawień graficznych nie daje zbyt wielkiego przyrostu fps, co automatycznie skreśla procesor jako źródło problemu. Poza tym jest mnóstwo ustawień graficznych zależnych od GPU, więc ten sposób nie będzie skuteczny. Lepszym wyjściem byłoby przetestowanie różnych procesorów w np. średnich detalach na mocnej karcie, by zobaczyć, czy i jakie zaszły zmiany w wydajności. Ale znowu – mało kto ma taką możliwość. Sprawdź zatem efekty po zmianie rozdzielczości. Jeśli np. w 1080p uzyskujesz (prawie) taką samą liczbę fps jak w 1440p, to znaczy, że problem stanowi procesor. Co ciekawe, może również okazać się, że nawet gdy testujemy daną grę w miejscu typowo graficznym, procesor może być ograniczeniem wydajności. Nawet w wyższych rozdzielczościach, 1440p i 4K, potrzebne jest odpowiednie CPU, co szczególnie widać na przykładzie chociażby Intel Core i3 i topowego GPU. We współczesnych grach cztery rdzenie (w tym i z HT/SMT) w wielu przypadkach nie są wystarczające do mocnych kart, i to wcale nie najnowszych generacji. Jeśli nadal masz wątpliwości, warto poszukać rzetelnych testów wydajności zarówno procesorów, jak i kart graficznych oraz podpytać ekspertów lub osoby bardziej zaznajomione z tematem np. na forach czy stronach internetowych i grupach społecznościowych. Najlepiej poznaj opinie różnych użytkowników – nigdy nie opieraj się tylko na jednej, która może wprowadzić Cię w błąd. Nic na tym nie stracisz, a możesz tylko zyskać dodatkową wiedzę, którą zawsze warto zweryfikować (albo przynajmniej spróbować). Jak rozpoznać, czy nasze połączenie CPU i GPU spisuje się źle? Gdy jako gracz zauważysz anomalie w postaci bardzo odmiennych wyników wydajności w różnych miejscach w danym tytule, zaczniesz się bez wątpienia zastanawiać: o co chodzi? Gdy zauważysz, że gra przez większość rozgrywki działa płynnie, natomiast w mieście pełnym NPC-ów (postaci niezależnych) spada ona drastycznie, to winowajcą nie będzie GPU. Wymiana tego podzespołu nic nie da, bo jego moc będzie blokowana przez procesor. Gdy rozgrywka nie jest satysfakcjonująca niezależnie od lokacji, Twoją uwagę powinna zwrócić karta graficzna. Jej wymiana może podnieść fps. Gdy ten komponent stanowi problem, możesz najpierw obniżyć detale i zobaczyć, czy przyniesie to pożądane efekty. Może jednak okazać się, że do danej gry zarówno procesor, jak i karta graficzna nie spełniają wymagań sprzętowych i wtedy konieczna będzie wymiana obu podzespołów. Zakup mocniejszego GPU może rozwiązać problem tylko połowicznie, ale wtedy jego wydajność ograniczać będzie przestarzałe i zbyt wolne CPU. Czy procesor zawsze musi być idealnie dobrany do karty graficznej? Procesor zwykle nie jest tak często wymienianym komponentem, jak np. karta graficzna. Czy zawsze trzeba idealnie dobrać CPU do GPU? I czy warto rozważyć przyszłościowy zakup procesora i jakie korzyści może przynieść taki wybór? Idealny tandem CPU i GPU to taki, który będzie idealny dla Ciebie Co to znaczy? Wiesz już, że dobór procesora do karty graficznej powinien być podyktowany tym, w co i jak grasz. W zależności od tego zainwestuj więcej w procesor lub kartę graficzną. Inaczej rozłóż budżet na CPU i GPU, jeśli grasz w strategie, zwłaszcza takie jak seria Total War. Wtedy kup mocniejszy procesor i słabszą kartę. Do takiego przeznaczenia podzespoły nie muszą się komponować się idealnie, ale nie popadaj w skrajności. Co innego, gdy grasz w gry wymagające przede wszystkim mocnego GPU. Wtedy nieco więcej pieniędzy przeznacz na kartę graficzną, ale – tak jak wcześniej wspomnieliśmy – z umiarem. Nie łącz np. Intel Core i3 z (prawie) topowym GeForce’em lub Radeonem. Gdy grasz w wysokich rozdzielczościach, zmiana procesora na nowszą generację może nie przynieść skoku wydajności w grach. Na przykład posiadacz Ryzena 5 3600X może nie zyskać żadnych korzyści w rozdzielczości 4K po wymianie na np. Ryzena 5 5600X. Wydaj wtedy nieco więcej na GPU. Nowsze CPU z kolei przyniosłoby poprawę wydajności przy dobrym GPU w 1080p. Pamiętaj, liczą się także Twoje potrzeby, a nie tylko ogólna wydajność podzespołów. Czy przyszłościowy zakup CPU ma sens? Dlaczego warto usiąść i chwilę zastanowić się nad tym, co nas czeka w przyszłości, przed wyborem CPU? Biorąc pod uwagę, że w konsolach obecnej generacji (PlayStation 5, Xbox Series X i Xbox Series S) sercem jest 8-rdzeniowy i 16-wątkowy procesor, warto rozważyć tak samo wyposażone CPU do komputera. Nawet jeśli zakupiony procesor nie będzie miał tak wydajnych rdzeni, jak jego następcy, to wystarczająca ich liczba może zaprocentować w przyszłych grach. Nowoczesne tytuły mogą dzięki temu lepiej działać. Może bowiem okazać się, że zbyt mała liczba rdzeni (wątków) ograniczy potem wydajność, czego przykładem w przeszłości były chociażby Assassin’s Creed: Origins, The Division 2 czy Battlefield V. Przykład procesora AMD Ryzen 5 1600X udowadnia, że czasem warto zainwestować z myślą o przyszłości. Przytoczony model dzięki konfiguracji 6-rdzeniowej i 12-wątkowej zestarzał się z godnością w przeciwieństwie do konkurencyjnego Intel Core i5-7600K z podobnego okresu. Dlaczego? Bo porównywalna w tamtym czasie jednostka Intela ma tylko 4 rdzenie i 4 wątki, co nie jest już wystarczające w nowoczesnych produkcjach, które wykorzystują więcej rdzeni. W tytułach stawiających mocniej na pojedynczy rdzeń Intel Core i5-7600K wypada często lepiej. W nowszych, czerpiących pełnymi garściami z wielordzeniowości grach Ryzen 5 1600X potrafi odstawać od swojego rywala. Jak bardzo? Niczym Usain Bolt od reszty zawodników podczas pamiętnego biegu na 100 metrów, który odbył się na Letnich Igrzyskach Olimpijskich 2008 w Pekinie. Ten model procesora „czerwonych” zestarzał się tak udanie, że AMD postanowiło nawet odświeżyć go jako Ryzen 5 1600 AF, który wykorzystuje usprawnioną architekturę (Zen+) i niższy proces technologiczny (12 nm zamiast 14 nm). Dzięki temu zbliżył się on wydajnością do konkurencyjnego Intel Core i5-9400F (znacznie nowszego niż Core i5-7600K). Podobnie może być za kilka lat, gdy na rynek zaczną trafiać gry tworzone z myślą wyłącznie o konsolach PS5 i Xbox Series X/S. Do tych gier konfiguracja 6/12 może już wypadać blado na tle 8/16. Bliżej temu do wróżenia z fusów herbacianych, chociaż takie myślenie ma solidne podstawy. Mocniejszy procesor otwiera też później ścieżkę do zakupu wydajniejszego GPU. Czasem można więc zainwestować więcej, ale rozsądnie – tak, by nie przesadzić ani w jedną, ani w drugą stronę. Dlaczego? Postęp w kolejnych generacjach trudno przewidzieć, więc niekoniecznie musi być to dobre rozwiązanie. Teraz jest łatwiej, bo jesteśmy po premierze nowych konsol, więc zakup np. Ryzena 7 5800X może się opłacić, zwłaszcza jeśli nie zamierzasz wymienić go w najbliższych latach. Czy może jednak przyszłościowy zakup procesora nie ma sensu? Jaka jest druga strona medalu, jeśli chodzi o przyszłościowy zakup procesora? Niestety, istnieje ryzyko, że moc procesora może nie być wystarczająca w grach za kilka lat, nawet jeśli wydaje się nam, że kupiliśmy CPU na długi okres. Duża liczba rdzeni może sprawić, że lepiej się zestarzeje, ale może być trudno później zakryć pozostałe niedoskonałości lub braki, które wyjdą z biegiem czasu. Z rdzeniami też może nie być tak różowo. Sony i Microsoft chcą jeszcze przez długie lata wspierać starsze konsole. Zanim będzie odpowiednio duża liczba gier, które w pełni skorzystają z dobrodziejstw procesora 8-rdzeniowego i 16-wątkowego, mogą minąć wieki. Wiesz już, do czego zmierzamy, prawda? Wybór takiego CPU może mieć mniejszą zasadność, bo zbyt brzydko się zestarzeje, nim faktycznie przyda się w grach. Jest to bardziej skomplikowane, niż się wydaje, ponieważ zależy od wielu czynników: jak gry będą wykorzystywać rdzenie, jaki postęp nas czeka w architekturach CPU i jak wiele tytułów skorzysta z nowości. Progres wydajnościowy nie był w ostatnich latach tak duży, jak w przypadku kart graficznych, więc ryzyko, że procesor danej generacji okaże się zbyt słabym ogniwem po premierze kolejnej, jest niższe niż w pierwszej dekadzie XXI wieku. W ramach podsumowania warto jeszcze dodać, że jeśli planujesz przesiadkę na monitor o wyższej rozdzielczości, to przesadna inwestycja w procesor nie ma większego sensu. Wiesz w końcu, że wraz z jej wzrostem znaczenie tego podzespołu maleje, a na główny plan trafia karta graficzna. Jest szansa, że CPU, które może nie spełniać oczekiwań w 1080p, bez problemu wystarczy do rozgrywki w 4K. Jakie mogą być skutki złego dopasowania CPU i GPU? Niewłaściwy dobór procesora do karty graficznej może przynieść fatalne konsekwencje. Jeśli np. połączysz Intel Celeron lub Pentium z GeForce’em RTX 3080, to w grach taki zestaw może spisywać się wyraźnie gorzej niż połączenie procesora Intel Core i9-11900K i RTX-a 3060. Nie będzie to dobry pomysł. Im gorzej dobierzesz te podzespoły, tym komfort rozgrywki będzie mniejszy. Skoro CPU może ograniczać wydajność GPU nawet w miejscach typowo graficznych, nie dobieraj procesora z najniższej półki do karty z najwyższej (to, rzecz jasna, skrajny przykład dla lepszego zobrazowania). Jak jednak wspomnieliśmy, podzespoły nie muszą być idealnie dobrane, to wszystko zależy od wielu czynników. Jeśli kupisz mocną kartę graficzną, ale Twój obecny procesor tylko w niewielkim stopniu ją ogranicza, to nic złego się nie stanie. Nie będziesz po prostu wykorzystał w 100% jej mocy, ale w grach, w których uzyskujesz np. 165 zamiast 180 klatek na sekundę, nie zrobi to chyba wielkiej różnicy, nieprawdaż? Poza tym, gdy zmienisz potem CPU, problem zniknie. Z dwojga złego lepiej mieć zbyt mocny procesor względem karty graficznej niż na odwrót. Poza wyjątkiem, gdy różnice są stosunkowo niewielkie albo wręcz nieodczuwalne. Nawet jeśli są gry, w których procesor przekłada się na większą rozbieżność w wynikach, to jest w nich na tyle dużo klatek na sekundę, że ich liczba przestaje mieć znaczenie. Może stać się też tak, że nawet jeśli w jakiejś grze procesor będzie stanowił problem, to objawi się tylko w pojedynczych lokacjach, np. w dużym mieście pełnym NPC-ów, a w innych przypadkach, zależnych głównie od mocy GPU, gra będzie chodziła bez większych zgrzytów. Musisz odpowiedzieć sobie na pytanie: czy taki scenariusz stanowi dla Ciebie problem, który należy rozwiązać? Najlepsze połączenie procesora i karty graficznej Recepta jest prosta. Staraj się dobierać niskiej klasy procesor do niskobudżetowej karty graficznej, średnie CPU do przeciętnego GPU itd. Nie trzeba się jednak trzymać sztywno tych granic. W końcu jeśli grasz w gry zależne w większym stopniu od karty graficznej, zdecyduj się na nieco mocniejszy układ nawet przy nieco słabszym procesorze. Takie połączenie będzie wtedy jak najbardziej uzasadnione. Podsumowując, kluczem jest dobór zrównoważonych podzespołów, tak by jeden nie odstawał znacząco wydajnością od drugiego. Za liczbę fps nie odpowiada wyłącznie karta graficzna – w zależności od gry czy scenariusza większy lub mniejszy wpływ na wartość klatek na sekundę ma także procesor (i w mniej odczuwalnym stopniu pamięć RAM). Mamy nadzieję, że nasz poradnik ułatwi Ci wybór odpowiednich komponentów. Przed decyzją o zakupie procesora do określonej karty graficznej, zapoznaj się z jego specyfikacją i testami wydajności w tych grach, w których ma Ci on służyć. To zdecydowanie ułatwi Ci wybór i dopasowanie CPU do GPU. Przeczytaj więcej o polecanych procesorach do gier na portalu Geex Odkryj najlepsze procesory w sklepie x-kom Sprawdź pełną ofertę kart graficznych w x-komie Witam. Mam takie pytanie mam kartę graficzna GeForce 9800 GTX+ i chciałbym w grze wykorzystać z niej 100% jej mocy, bo gdy gram na ustawieniach niskich to wykorzystuje 50% mocy gra się delikatnie przycina, a gdy biorę na ultra to gra tez delikatnie się przycina ale wtedy wykorzystuje 80% czy da r PNY GeForce RTX4070TI XLR8 Gaming Verto OC 12GB GDR6X (VCG4070T12TFXXPB1O) od 4048,99 zł Sprawdź lub napisz opinię Karta graficzna pamięć 12GB RAM, Współbieżność Nie posiada, Wyjścia HDMI, Karta się nudzi na poziomie 50-70% wykorzystania (maksymalny fps w novigradzie jest w okolicach 80 bez względu czy wbiję 720p low czy 1080p low), po wyłączeniu AA skacze fps i wykorzystanie gpu - przynajmniej na rx5600xt.

Zazwyczaj poprzez sprawdzenie lokalizacji złącza, do którego jest podłączony monitor, można w łatwy sposób określić jaki typ karty graficznej wykorzystuje dany komputer. Jeśli obok miejsca gdzie podłączyliśmy monitor znajdują się też takie złącza jak USB, albo RJ-45, to jest to zintegrowana karta graficzna.

HCtUC.