Utknęliśmy – AMD o przyszłości procesorów krzemowych i ich następcy

Adrian Celej Newsy 2019-03-19

Wielu słyszało zapewne o czymś takim jak Prawo Moore’a. Prawo to ma mieć wkrótce swój kres spowodowany brakiem możliwości dalszego rozwoju procesorów. Głos w tej sprawie zabrało AMD i wcale nie mają dobrych wieści.

Nie prędko zastąpimy krzem

amd

Prawo Moore’a wkrótce przestanie działać właśnie ze względu na ograniczenia w dalszej obróbce krzemu. Początkowo Intel informował, że zejście poniżej 10 nm jest nieopłacalne, wkrótce zaczęto mówić o procesorach wyprodukowanych w procesie technologicznym 7 czy 5 nm. Dziś AMD dało do zrozumienia, że jest jeszcze gorzej. Na chwile obecną nie mamy zamiennika dla krzemu i obecna technologia będzie nam służyć przez jakieś 7-10 lat. AMD będzie dalej rozbudowywać swoje procesory, wykorzystana zostanie technologia układania chipów jeden nad drugim (3D). AMD myśli też o tworzeniu chipów w procesie technologicznym 3 nm, co może mieć miejsce za około 5-6 lat.

Co będzie dalej?

Lata procesorów krzemowych są policzone i prędzej czy później trzeba będzie znaleźć alternatywę. Na chwilę obecną AMD nie kładzie nadziei w grafenie, zamiast tego zainteresowane jest komputerami kwantowymi. Ta technologia potrzebuje jednak czasu, według AMD od 10 do nawet 100 lat. Owszem, komputery kwantowe już istnieją, produkuje je np. firma D-Wave Systems, jednak ich produkty budzą kontrowersje, wielu uważa, że nie można nazywać ich komputerami kwantowymi. Na chwile obecną komputery kwantowe są na takim etapie, jak dawniej komputery typu Odra – są drogie, zajmują ogromną przestrzeń i wykorzystuje się je do konkretnych działań, w 2009 roku Google kupiło taką maszynę od D-Wave Systems do wyszukiwania grafik. Czy takie sprzęt uda się kiedyś udomowić?



  • Tomasz

    INTEL nie schodzi ponizej 10nm bo dalej w to wierzy.

  • stark2991

    Ostatnio się zastanawiałem co będzie, i doszedłem do wniosku, że po prostu nastąpi era „wincyj rdzeni”. Zresztą już się zaczęła. Ale to też rozwiązanie na krótką metę, bo nie można tych rdzeni dodawać w nieskończoność, zwłaszcza, że efektywność energetyczna nie będzie się poprawiać.
    Póki co są plany zejścia jeszcze niżej, do 5, a nawet 3nm (oczywiście jestem świadomy, że te liczby są zaniżone), więc mamy kilka lat spokoju. A potem zobaczymy co wymyślą. Firmy muszą zarabiać, i nie pozwolą sobie na zastój, podejrzewam, że szybko się znajdą sposoby na dalszy rozwój.

    • Jonny

      Wydaje mi sie że celowo będą spowalniać rozwój aktualnie dostępnych środków by móc coś pokazać w następnej generacji

    • jendrush

      Dziś trochę abstrakcja, ale kto wie czy niedługo nie zobaczymy procesorów 32, 64, 1268, 256 itd. rdzeniowych:) Narzędzia programistyczne będą się musiały zmienić.

    • Adrian Celej

      Teoretycznie można też zmodyfikować samą architekturę, budować bardziej skomplikowane rdzenie potrafiące wykonywać złożone instrukcje. Tylko czy to gra warta świeczki.

      • stark2991

        W sensie wzrost IPC? To chyba też nie jest proste.

    • variete

      Liczba rdzeni byłaby jeszcze do zaakceptowania, gdyby tylko programiści ruszyli dupy. Masa softu (albo przynajmniej część istotnych modułów) nie potrafi wykorzystać nawet 2 rdzeni. Pierwszy przykład – saver tiffa w Photoshopie. Z kompresją ZIP obciąża jeden rdzeń. Z kompresją LZW – 2-3 (na 6 z HT) po 20-30-40%. Resampling podobnie. Nawet nie chce mi się sprawdzać, ile jeszcze modułów jest tak kijowo napisanych. A to tylko jeden program. Kolejny – InDesign i generowanie PDF-a. Obciążenie 2-3 rdzeni po 20-30%. A idź Pan w cholerę z takim marnowaniem zasobów.

      • Sławek

        A kto kazał kupować wielordzeniowy procesor 🙂

        Prawda jest taka, że rdzeń 6Ghz (szczególnie HT) byłby zawsze szybszy niż dwa rdzenie po 3gh, tylko tego pierwszego na razie nie potrafią skonstruować. Takie rzeczy jak kompresja – bardzo polega na wynikach wcześniejszych obliczeń, można je próbować zrównoleglić, ale narzut jest tak duży, że na dłuższą metę nie ma sensu.

        Interesowałem się prędkością Lightrooma. Nawet w najnowszych zoptymalizowanych (podobno) na wielordzeniowe CPU wersjach przyspieszenie kończy się po 4 rdzeniu, a to oznacza, że w tym momencie narzut bierze górę.

        Wiele rdzeni jest dobre jeśli mamy wiele niezależnych zadań do zrobienia (jak w serwerze). Lub równoczesny export wielu zdjęć. Zauważ że na przykład w kompresji video za pomocą CPU jedyną rozsądną metodą wykorzystaniu wielu rdzeni jest podział filmu na kawałki i przydzielenie każdemu procesorowi obróbki po kawałku, a na koniec połączenie wyników.

        • variete

          A kto kazał kupować wielordzeniowy procesor

          Producenci aplikacji, które również są dla mnie istotne w pracy. Taki CaptureOne, nie dość, że potrafi obciążyć wszystkie rdzenie (z HT włącznie), to jeszcze jednocześnie chip karty graficznej. 🙂

          • Sławek

            Muszę spróbować. Utknąłem z tym Lightroomem. Ale wiesz pewnie, że przyzwyczajenie jest silne.

          • variete

            LR, podobnie jak ACR, mają jak dla mnie fatalny silnik dekodowania RAW. Kolory są tak nieakceptowalne, że nie jestem w stanie na tym pracować. A cyrtolić się każdorazowo z edycją poszczególnych barw, żeby ogólnie obrazek wyszedł jako-tako, to nie dla mnie. No i druga rzecz – wydajność. Mam dość mocną maszynę stacjonarną, a LR działa na niej jak na biurowym laptopie sprzed 5-8 lat. Suwaki „haczą”, na odświeżenie każdej zmiany trzeba czekać… Porażka. O dziwo bliźniaczy ACR nie przejawia takich problemów, więc to ewidentnie wina LR. Również pod względem funkcjonalności (w porównaniu do C1), LR jest narzędziem z minionej epoki.



x