W przyszłym roku to Snapdragon 845 będzie najgorszym, flagowym układem?

mm Łukasz Pająk Newsy 2017-11-30

Jeśli myślimy o dobrych układach to decydujemy się na taki, który napędzany jest mocą obliczeniową układu od Qualcomma. Wyjątkami są Exynosy od Samsunga lub Kiriny od Huawei. Mimo wszystko to Snapdragony znajdziemy u niemalże każdego producent. MediaTek coraz bardziej traci na znaczeniu. Problemem Tajwańczyków nie jest brak udostępnianych źródeł. Dużo częściej to kiepska wydajność i wysokie temperatury zniechęcają do zakupu urządzenia z układami Helio.

Qualcommowi również zdarzyło się zaliczyć kilka wpadek. Niewątpliwie najpoważniejszą był Snapdragon 810, który okazał się nieudaną próbą Amerykanów na wejście w świat flagowych 8 rdzeni. Problemem były wysokie temperatury i każdy z producentów musiał na swój sposób radzić sobie z odprowadzaniem ciepła. Snapdragony 820, 821 i 835 były już w pełni poprawnymi układami – bez wad ukrytych. Miejmy nadzieję, że nadchodzący układ z najwyższej półki – oznaczony numerem 845 – też będzie bezproblemowy. W Sieci pojawiła się specyfikacja tej jednostki. Niestety, okazuje się, że Qualcomm może zostać w tyle. Snapdragon 845 ma prezentować się następująco:

  • 4 rdzenie Cortex-A75 + 4 rdzenie Cortex-A53
  • GPU: Adreno 630 – wsparcie dla wyższych rozdzielczości wyświetlaczy o proporcjach 18:9
  • modem X20 – LTE i WiFi do 1,2 Gb/s
  • wsparcie dla podwójnych aparatów do 25 MPx – z przodu i z tyłu
  • proces technologiczny: 10 nm FinFET LPE

Wszystko wygląda naprawdę interesująco, prawda? O wsparciu dla sieci 5G zapomnijmy – na nie przyjdzie jeszcze czas. Problemem w walce o fotel lidera może okazać się zastosowany proces technologiczny. Samsung, Huawei, a nawet MediaTek zapowiadają układy wykonane w 7 nm. Do tego dochodzi nowa generacja LPP, która powinna pojawić się w Exynosie 9810 (Galaxy S9). W stosunku do LPE, możemy mówić o wyższej wydajności (o 10%) i niższym poborze energii (o 15%).

Zobacz też: Zamawiasz iPhone’a, dostajesz ziemniaka – oto polskie Black Friday!

O ile mocy obliczeniowej mamy w nadmiarze to w świecie niewydajnych akumulatorów każda amperogodzina jest na wagę złota. Potwierdzenie powyższych informacji może sprawić, że Qualcomm zostanie w tyle. Samsung może wyjść na prowadzenie – pamiętajmy, że w Europie flagowe modele pojawiają się z Exynosami.

źródło: Gizchina



  • Dreyes

    Niech i będzie najgorszym układem.. Dla mnie różnica nie będzie odczuwalna w porównaniu do tegorocznego flagowca. Co do niższego poboru i tej całej energooszczędności, to przemilcze to jak co roku :d

  • Qba

    Już w tym roku Snapdragon 835 jest mniej wydajny od Exynos 8895, Kirin 970 i Apple A11.

  • Serim

    Może będzie w 10nm, ale nie zapominajmy że najbardziej zasobożerne aplikacje i gry są projektowanie pod snapdragony. Exynosy i kiriny używa dwóch producentów, reszta używa snapdragonów. Więc sumarum i tak Qualcomm wyjdzie na duży +

  • Przemysław Msiał

    Po pierwsze – modem x20 to obsługa 5G.
    Po drugie wątpię że Qualcomm zrezygnuje z technologii Kyro. Pożyjemy zobaczymy.

  • Czytaj swoje newsy nim je publikujesz, bo błędów co nie miara.

  • Maruuuus

    Dla mnie gadanie o niższym poborze energii jest bezsensowne… co roku ta sama bajeczka, a w praktyce okazuje się, że telefon nie potrafi wytrzymać nawet jednego dnia przy średnim użytkowaniu. Od wielu lat (począwszy od momentu premiery Galaxy S3) coraz bardziej interesuję się Andoidem, czytam, czytam i czytam te same „obiecanki” o niższym poborze energii, a w praktyce wychodzi gorzej niż w zamiarach. Przykład? Z racji wypalonego wyświetlacza w Galaxy S5 kupiłem sobie LG G5, gdyż raziłem się TouchWizem (obecnie Samsung Experience). Telefon ten jest napędzany procesorem Snapdragon 820, który – według zapowiedzi miał również być wydajniejszy od swojego poprzednika. A jak to jest w praktyce? Oh – wstanę sobie o 7 czy 8, bateria oczywiście naładowana do setki, posiedzę trochę, sprawdzę co nowego w świecie, odpiszę komuś na wiadomości, w międzyczasie obejrzę jakiś film na YT i mam 90%. Żenada. Wszyscy producenci na siłę wpychają nam po „tysiąc” rdzeni i oferują coraz to niższe procesy technologiczne w procesorach, a nikt tak naprawdę nie może się skupić na bateriach od których zależy wszystko. Co mi po 8 czy 10 rdzeniach kiedy bateria będzie mi „padać” w mgnieniu oka? Myślę, że ludzie, którzy stoją za Androidem zrobili dla nas naprawdę dużo udogodnień – wprowadzając chociażby Doze w wersji 6.0 czy kolejne usprawnienia w następnych odsłonach tego systemu. Lecz duża odpowiedzialność stoi po stronie producentów wydających urządzenia. Każdy jest najarany na Infinity Display, FullVision, pakowanie kolosalnych rozdzielczości w smartfonach czy jakieś inne duperele, a nikt nie może wytężyć swoich szarych komórek i opracować baterii, która by nam zapewniła chociażby jeden pełny dzień na korzystanie z naszego urządzenia.
    Czytałem ostatnio o tym, iż Samsung pracuje nad lepszymi bateriami do smartfonów, coś opatentowali i dzięki temu wydłuży się czas korzystania z naszych urządzeń. Jak będzie? Przekonam się gdy zobaczę wyniki, bo póki co to jestem rozczarowany tym, że żaden producent oprócz wspomnianego wcześniej Samsunga nie robi nic, co by mogło nam pomóc.

    • szafran

      Apple pod tym względem chyba jest górą. Gdyby smartphony z Androidem miały baterie wielkości tych z „małych” iPhone’ów to trzymałyby kilka godzin krócej niż odpowiedniki Apple. IMO

      • Pod jakim niby względem? Przecież iP ma o wiele mniejszy SOT niż np. OnePlus 5.

        • Qba

          Czas pracy pod obciążeniem to nie to samo co SOT

          • mach

            IOS ma fenomenalny czas czuwania. Wynika to z doskonałego Zoptymalizowania hardwaru i softwaru. Tylko co z tego że iPad czy iPhone może mi leżeć 2tyg w szufladzie. To też jest ważne, ale dużo ważniejsze jest jak długo można zeczywiscie korzystać z urządzenia. Spalania samochodu nie podaje się podczas postoju tylko na 100km.

          • Qba

            iPhone X trzyma tylko 3 godziny pod obciążeniem albo jeden dzień czuwania.

      • maxprzemo

        Czyli jeśli iPhone ma mniejszą baterię to powinny się szybciej ładować a jak jest naprawdę to widać na tym filmie
        https://youtu.be/nzzw4qXkGqs

        • szafran

          Jeśli dobrze rozumiem to używają tutaj zwykłej ładowarki do iPhone’a. OnePlus za to używa technologii DashCharge a Samsung QuickCharge.

          • maxprzemo

            Używane są oryginalne ładowarki dostarczone w zestawie z telefonem. Jak Apple wydaje telefon za 4000 zł z funkcją szybkiego ładowania i nie stać ich żeby dodać do telefonu takiej ładowarki to ich problem. Całe Apple biedaki.

          • szafran

            Zgadzam się, straszne chamstwo. Co gorsza zdaje się, że do Xki za 5700 też nie dodają najmocniejszej obsługiwanej ładowarki. Chodzi mi tylko o to że prędkość ładowania nie wynika tylko z wielkości baterii.

      • łukasz Jedryszczyk

        A myślisz dlaczego tak trzyma bo jest mały. Mały wyświetlacz,niska rozdzielczość, starszy układ itp to też ma znaczenie

        • No, szczególnie plusy są małe. A starszy układ?

          • łukasz Jedryszczyk

            Słabszy procesor też będzie pobierał mniej energii

          • A od kiedy to procesory Japka są słabsze? To, że mają mniej rdzeni jeszcze niczego nie dowodzi. Taka Tegra K1 też miała tylko dwa rdzenie, a w swoich czasach była przepotężna. Do dziś jest po prostu mocna.

          • Qba

            No ale Apple A11 są najwydajniejsze

        • Qba

          Widziałeś iPhone X?

    • maxprzemo

      Problem baterii to nie tylko problem smartfonów. To samo tyczy się laptopów czy elektrycznych samochód. Wszyscy czekają na jakiś przełom. Na razie producenci biorą się za temat „od tyłu”. Zamiast skupić się na jak największej pojemność przy zachowaniu dotychczasowych wymiarów skupili się na szybkim ładowaniu.

      • Henrar

        Bo fizyki nie oszukasz.

        • fizyka pozwala ne dużo lepsze baterię

          • Henrar

            Pozwala przy jednoczesnym obniżeniu bezpieczeństwa. Coś za coś.

          • wut?
            jakiego bezpieczeństwa?

          • Henrar

            Bo jak wiadomo, pakowanie coraz większej ilości energii do małego pudełeczka nie niesie ze sobą konsekwencji w postaci zmniejszenia bezpieczeństwa, gdy bateria się uszkodzi.

          • xD nie wiem kto by się tym przejmował xD
            jak myślisz, ludzie wybiąrą 10 dni pracy bateri z ryzykiem zginięcia czy 1 dzień pracy bateri z ryzykiem poparzenia?

          • stark2991

            Kolego, to baterie litowe są niebezpieczne, ponieważ lit to bardzo reaktywny pierwiastek, nie uczyli? Obecnie są już testowane nowe typy ogniw, które są bez porównania bezpieczniejsze od stosowanych, a przy tym nierzadko mają dużo lepszą zdolność magazynowania energii. Ale zanim wejdą w życie pewnie miną lata, bo jak wiadomo najpierw trzeba wyeksploatować bieżącą technologię żeby jak najwięcej zarobić

          • Filodendron

            lepsze baterię

            Naucz się „końcówków i odmianów”. „Podaj mi tę baterię”, ale „za 10 lat będę lepsze baterie”.

          • Łukasz

            będą lepsze baterie

          • maxprzemo

            Nie „za 10 lat będę lepsze baterie” tylko „za 10 lat będą lepsze baterie” 😉

    • Była już masa zaprezentowanych rozwiązań z dłużej trzymającą baterią. Niestety, ale żadne z nich się nie wybiło albo może po prostu zostało wyciszone? Tak naprawdę nie ma na to żadnych dowodów, być może celowo ukrywa się nowe rozwiązania, żeby zmuszać klientów do wymiany urządzeń z wbudowaną baterią co kilka lat?
      O wcześniejszych rozwiązaniach na dzień dzisiejszy kompletna cisza, niestety.

      • Henrar

        Bzdury. Nikt nie blokuje żadnej technologii związanej z bateriami, bo jest to Święty Graal elektroniki i każda firma zajmująca się bateriami wydaje miliardy na R&D związanym z ulepszeniem baterii.

        Problemów z tymi wszystkimi cudownymi technologiami jest sporo (mogą zawierać część lub wszystko poniżej):
        a) nie da się ich zminiaturyzować
        b) nie da się ich masowo wyprodukować
        c) są cholernie drogie
        d) są zwyczajnie zbyt niebezpieczne do montowania w elektronice dla konsumentów
        e) nie osiągają wystarczających parametrów dla danych zastosowań (napięcia/natężenia/itp)
        f) mają niższą żywotność niż obecne rozwiązania
        g) źle znoszą zmiany temperatur/ciśnienia – gorzej niż obecne rozwiązania

        • A dlaczego nie ma nigdzie wyjaśnień, dlaczego tamte rozwiązania zostały przerwane? Dlaczego jest o nich kompletna cisza? Nie ma żadnych informacji na ten temat, rozwiązanie znika i koniec.
          Zmuszanie klientów do zakupu nowego urządzenia to też jest powód.

          • Henrar

            Bo media wolą raportować kolejne „rewolucyjne” technologie zamiast śledzić to, co się z nimi potem dzieje. I zwykle nie raportują problemów, które te technologia ma na samym początku a są znane od razu.

            I już bez przesady – żywotność baterii stale rośnie (Samsung stosuje bardziej trwałe baterie od S8).

          • No właśnie nie, czasami dana technologia nie pokazuje wad, a same zalety, szybsze ladowanie, większa pojemność, itd.
            A może po prostu niektóre rozwiązania są tak bardzo rewolucyjne i mogłyby zbyt dużo namieszać na rynku, zatem poszukuje się trochę słabszych rozwiązań, ale lepszych niż dzisiejsze, by potem wytłumaczyć to ewolucją?

          • Henrar

            ” czasami dana technologia nie pokazuje wad, a same zalety, szybsze ladowanie, większa pojemność, itd.”

            A potem się okazuje, że nie da się na jej podstawie wyprodukować tanio baterii.

            Znowu – firmy wydają miliardy na badania. Gdyby znaleźli odpowiednią i tanią technologię to już dawno by była wdrożona i sprzedawana innym. Ale nikt takiej na razie nie wynalazł.

          • Jakieś konkretne dowody na Twoją teorię dotyczącą, że każde nowe rozwiązanie nie jest tanie?
            A to, że wydają to nic nie znaczy. Mogą mieć już opracowane kilka nowych rozwiązań, ale nie wprowadzą najlepszego, bo technologia musi ewoluować, a kasę z klienta trzeba doić.

          • Henrar

            „Jakieś konkretne dowody na Twoją teorię dotyczącą, że każde nowe rozwiązanie nie jest tanie?”

            Bo nie ma ich w produkcji.

            Sugerujesz, że wprowadzenie nowej technologii nie pozwoliłoby „doić” klientów?

            O rany, nawet nie wiesz jak się mylisz. Baterii obecnie potrzebuje każdy – nie tylko konsumenci, ale też firmy (także te, które produkują te baterie!), rządy, itd. Wprowadzenie przez daną firmę rewolucyjnej technologii pozwoliłoby jej zgarnąć większość rynku i zapewnić sobie praktycznie monopol.

          • To, że nie ma ich w produkcji to żaden dowód. Mogą być zbyt dobre i wtedy ludzie nie zmienialiby telefonu tak często, a bateria jest jednym z głównych czynników wymiany.
            Tak, sugeruję. Dlaczego? A no, dlatego, że ilość cyklów mogłaby się zwiększyć, pojemność mogłaby się zwiększyć, prędkość ładowania baterii też by się zwiększyła, a starzenie baterii by się zmniejszyło, przez co baterie utrzymywałyby swoją pojemność przez większą liczbę lat, a co za tym idzie – ludzie nie zmienialiby tak często telefonów. Teraz okres zmiany to jakieś ~2 lata. Ja mam już smarta 4 lata i w sumie nie śpieszy mi się z wymianą, bo działa świetnie, ale mam wymienną baterię i mój fon ożył, a inni będą zmuszeni do kupna nowego. Nawet jeżeli tego nie chcą to głównym powodem będzie słabo trzymająca bateria.

          • Henrar

            Jest. Znowu – Samsung SDI, LG Chem i Panasonic wydają na R&D związane z bateriami miliardy. Myślisz, że robią to po to, by projekty schować do szafy i ich nie wykorzystać? xD Te firmy chcą rewolucyjnych technologii, problem w tym, że na razie nic takiego nie wynaleziono.

            Pojemność baterii przez lata się zwiększyła. Szybkość ładowania się zwiększyła (i to praktycznie do granic możliwości). Żywotność również się zwiększyła (znowu – odsyłam do Samsunga i nowych baterii w S8 i Note8).

            Nie wszystko jest spiskiem. Czasem po prostu nic lepszego nie wymyślono.

          • To nadal nic innego jak Twoje domysły, a nie żadne dowody.

          • Henrar

            A ty masz niby dowody na to, że nowe technologie są wstrzymywane przez firmy produkujące baterie? xD Idź i zatrudnij się w dziale R&D tych firm, to pogadamy.

            Wzrost pojemności, szybkości ładowania czy żywotności baterii to fakt. Odsyłam do parametrów.

          • Nie mam, ale wystarczy logicznie pomyśleć i dojdziesz do wniosku, że specjalnie się tak robi, by potem tłumaczyć to ewolucją. Poza tym, na rynku nadal są baterie z litem i najpierw trzeba je wykorzystać. Nikt nie będzie wprowadzał rewolucji jak są wyprodukowane inne, starsze baterie, na które producenci wpakowali grubą kasę.

          • Henrar

            „Logicznie”. Tu nie ma żadnej logiki. Są tylko domysły niepodparte żadnymi dowodami (ani nawet przeciekami z działów R&D, w których pracuje ładnych parę tysięcy ludzi).

          • W tym wypadku i tak warto założyć taką wersję. Z każdym innym podzespołem tak się robi. Czy to CPU, czy RAM, itd. Nikt nie zrobi dużego skoku, bo jest to niekorzystne. Trzeba zwiększać wydajność powoli i wmawiać klientom, że jest lepiej niż wcześniej.
            Prosty przykład: dlaczego Apple nie wpakowało z 6GB RAM do iP tylko 3GB? Nie tłumacz, że nie ma potrzeby, bo jest i multitasking wywala apki. Ale trzeba zarobić, a jak wpakowaliby więcej GB to zapłaciliby więcej, ale zysk musi być.

          • Henrar

            CPU cały czas się rozwija. x86 jeszcze kilka lat temu nie nadawało się do urządzeń bez wentylatorów (pomijam stosowanie starożytnego 486 w Nokii). Pobór mocy został przez Intela drastycznie zmniejszony i taki procesor nadaje się już do czegoś więcej niż tylko proste systemy wbudowane albo Netbook za 500 zł. Dodajmy do tego rozwój instrukcji SIMD jak AVX i rozwój wydajnościowy widać gołym okiem. To, że z tego nie korzystasz nic nie znaczy. W ARM postęp wygląda jeszcze lepiej, bo tam architektura nie jest ograniczona 40letnim bagażem i wsteczną kompatybilnością z jakimś 16 bitowym procesorem na kiju wydanym lata temu i jest pole do popisu w przypadku rozwoju wydajności pojedynczego rdzenia.

            RAM? To samo. Całkiem niedawno wprowadzono nowy, bardziej energooszczędny standard w postaci LPDDR4. W technologiach RAM stosowanych w GPU (GDDR5X, GDDR6 czy HBM2) przez litość nie wspominam. Nie bez przyczyny teraz mamy przepustowość rzędu 400+ GB/s (lub wyżej, Quadro/Tesle dochodzą do 800) a nie 200 jak jeszcze parę lat temu.

            Zresztą w przypadku elektroniki też jest fizyczne ograniczenie, podobnie jak w bateriach – proces technologiczny i rozwój jest praktycznie uzależniony tylko od tego (chyba że zrobisz jak Nvidia z Maxwellem i zaczniesz usuwać z krzemu praktycznie wszystko, co nie jest potrzebne w danym zastosowaniu, w tym przypadku wydajność w compute). Znowu – cudów nie ma.

            „dlaczego Apple nie wpakowało z 6GB RAM do iP tylko 3GB? ”

            iOS to nie Android, tutaj nie ma pełnego multitaskingu. 3GB dla iOS to za mało, tu się zgodzę, mogli dać 4. 6GB jest zwyczajnie tutaj niepotrzebne. Zresztą idąc tym tokiem myślenia, dlaczego Samsung czy inny producent nie wrzuca do telefonów 32GB RAMu? Bo nawet z 8GB po pewnym czasie apki będą się wywalać.

          • Kompletnie mnie nie zrozumiałeś. To co napisałeś to normalna ewolucja, która jest normą i nie jest niczym zaskakującym. Chodzi mi o rewolucję, o ogromny skok, który jest w dzisiejszych czasach trudny do doświadczenia. Przykładowo Quick Charging to ewolucja, bardzo drobna zresztą i posiadająca wiele wad jak chociażby nagrzewanie urządzenia. Rewolucją można nazwać np. USB-C w połączeniu z Thunderboltem 3, czyli coś co przynosi bardzo wiele zalet, duże zmiany. LPDDR3 -> LPDDR4 – tutaj też można się pokłócić o drobną rewolucję, ale drobną. Przesiadka z PowerPC na Intela – kolejna duża rewolucja.
            A przykład z Apple podałem Ci dlatego, żebyś zobaczył jak to działa. Samsung w pewnym stopniu błąd naprawił, bo wydał Note’a 8 z 6GB RAM i taka ilość powinna już być u nich w standardzie. Choć dla mało wymagających osób 4GB spokojnie wystarczy. Nie jest też niczym nowym, że mają tak rozbudowaną, a co za tym idzie – dużo ważącą, nakładkę.

          • Henrar

            Alez zrozumiałem. Dlatego wspomniałem o HBM, AVX czy Cellu.

            Czyli technologii, które owszem, rewolucyjne były ale nikt ich stosować nie chce albo stosuje w ograniczonym stopniu (zwłaszcza Cella). Podobna prawa tyczy się TB3, ale może po ujednoliceniu wtyczki z USB-C i otworzeniu standardu coś pójdzie do przodu.

            Samo przejście z PPC na x86 rewolucją nie było, chyba że dla programistów, którzy pisali tylko na sprzęt Apple.

          • Dlaczego uważasz, że przejście z PowerPC na Intela nie było rewolucją skoro było? To jedna z największych zmian, zupełne przepisanie systemu. PowerPC rozwijało się bardzo wolno, był też bardziej prądożerny niż Intel i bardziej się grzał. To była duża zmiana na „+”, a zwłaszcza w przypadku laptopów.
            A TB3 z USB-C już ma się dobrze. Przesył 100W tym samym kablem to duża zaleta. Za niedługo podłączymy monitor jednym kablem, z laptopa można też zrobić stacjonarkę podłączając do niego tylko jeden kabel – brzmi pięknie. A jak ktoś potrzebuje gamingu to zewnętrzna karta graficzna. Jeszcze tylko poczekać trochę, aż wszystko sprowadzi się do standardu USB-C, może i nawet całkowicie wyprze HDMI.

          • Henrar

            „Dlaczego uważasz, że przejście z PowerPC na Intela nie było rewolucją skoro było? To jedna z największych zmian, zupełne przepisanie systemu”
            Było dla Apple, ale nie dla całej branży. Ba, konsumenci w większości tego nie zobaczyli, bo OS X był od początku tworzony pod obie architektury i były uniwersalne binarki. To nie była rewolucja, którą było chociażby wprowadzenie USB, które dotknęło całej branży.

            „A TB3 z USB-C już ma się dobrze. ”

            Nie ma, nad czym mocno ubolewam mając sprzęt z TB3 (MBP) i szukając odpowiednich akcesoriów do tego, bo nie chcę kupować LG Ultrafine do niego, woląc coś od Della podobnej klasy lub Asusa ProArt. Podobnie z macierzami dyskowymi. O ile samo USB-C się jeszcze jako-tako przyjmuje, to w przypadku TB3 jest straszliwa posucha. External GPU wciąż jest w powijakach i jest ograniczone przepustowością (PCI x4 to jednak do większości GPU za mało).

            Zresztą… wracając do USB. To była rewolucja, ale ta rewolucja trwała latami i nikt na początku nie uznawał tego za rewolucję. Ba, jak Apple pozbywało się portów na rzecz USB, to wszyscy narzekali. Takich sytuacji na rynku obecnie jest od groma.

            „może i nawet całkowicie wyprze HDMI.”

            Nie w najbliższej przyszłości, to na pewno.

          • Ok, nie dla całej branży, tylko dla Apple’a, ale nadal było.
            Na akcesoria sobie jeszcze trochę poczekamy, ale powoli się to jakoś rozwija, a USB-C się przyjmuje coraz bardziej. Wystarczy spojrzeć na smartphone’y – całkiem zgrabnie poszło. Oczywiście pomijam tutaj kwestię Jacka, bo jego usunięcie nie ma żadnych zalet, a niesie same wady.
            A co do usuwania portów i wstawianiu tylko USB-C to też strzał w stopę dla Apple’a. Powinni zostawić kilka standardowych jak USB 3.0, a nie bawić się w adaptery, które i tak słono kosztują. Apple tutaj popełnił duży błąd.

        • mickey93

          każda technologia z innych dziedzin ma te same problemy, a jednak inne dziedziny się rozwijają a baterie nie. argument o wydawaniu miliardów jest słaby, bo nie wiadomo na co idą te miliardy, pojęcie rozwój jest baaaardzo ogólnikowe i można pod to podpiąć wszystko, od nowego samochodu prezesa, po zderzanie cząstek w CERN

          • Henrar

            Baterie też się rozwijają.

            I nie, nie można pod wydatki na R&D podpiąć „samochodu prezesa”. Firmy są notowane na giełdzie i muszą odpowiadać przed akcjonariuszami. Wiadomo więc, że hajs idzie na rozwój na baterie (w przypadku wymienionych firm jak Samsung SDI, itp). Odsyłam do raportów poszczególnych firm.

          • mickey93

            giełda i odpowiedzialność….. zapytaj byłych szefów olympusa

            zobaczysz co to prawdziwy rozwój jak wojsko się za to zabierze, to co się dzieje teraz to dreptanie w pobliżu miejsca startu

    • stark2991

      Też kiedyś miałem podobne myśli. Jak to jest że co roku chwalą się poprawą poboru energii, a efektu nie widać? Ano nieprawda, widać, tylko nie tam gdzie go szukasz 🙂 Już wyjaśniam.
      Co się zmieniło w smartfonach w przeciągu kilku lat? Co się zmienia co roku? Ekran – jego przekątna, rozdzielczość i jasność. Aparat, teraz już często w liczbie dwóch. Mnóstwo nowych funkcji jak AoD, stale aktywny dotyk, czujniki i czytniki. Głośniki o większej mocy, więcej pamięci RAM. Coś by jeszcze znalazł. A co się dzieje z bateriami? Stoją w miejscu. Czasami nieznacznie rosną, ale nie proporcjonalnie do reszty. A CPU coraz wydajniejsze, jednocześnie coraz efektywniejsze.
      Ja to widzę tak: cały ten zysk efektywności energetycznej idzie na pokrycie zwiększonego zapotrzebowania na prąd całego telefonu. Gdyby producenci nie dokładali coraz to nowych bajerów to na pewno byś zauważył różnicę. Ale to są smartfony, co roku ewoluują bo my tego chcemy.
      No a druga sprawa jest taka, że słaba bateria to od zawsze, aż do dziś, to jest główny powód wymiany telefonu. Żaden producent sobie nie odbierze takiej okazji żeby zarobić. A jeśli wydadzą model z dużą baterią, to ubiją go w inny sposób – małą ilością pamięci (G2) czy brakiem wsparcia (Lenovo P2)

    • mach

      Jeśli chodzi o baterie, to jednak postęp jest spektakularny. Przed erą smartfonów baterie w telefona miały pojemność 300 maksymalnie 700mAh. Obecnie przy zachowaniu tych samych wymiarów, baterie mają pojemność 3000mAh, czyli 10 razy więcej. Jak dla mnie to jest gigantyczny postęp. Inna sprawa że obecnie smartfony wysysają baterie o wiele szybciej. Dlatego postęp w tej dziedzinie jest wskazany.

      • Łukasz

        Zgadzam się z tobą. Taka Nokia 3310 z baterią 3000mAh trzymałaby ze 2 miesiące na jednym ładowaniu.

    • Qba

      Popatrz na Asusa Zenfone Zoom S i Lenovo P2

  • teges

    Wydajność S835 jest na takim poziomie, że nie ma co się ścigać.

    • adonim

      Wydajność snapdragona 820 już jest na takim poziomie.

      • teges

        Oczywiście, że tak. Na razie nie ma potrzeby zmieniać telefonu z powodu procesora, jeżeli ma się S820 i wyżej.

      • stark2991

        Wydajność S801 jest na takim poziomie!
        Albo nie, już telefony na S625 są szybsze…

        • S600 zgłasza gotowość do działania 😀

          • stark2991

            Wracaj do muzeum z tym staruszkiem 😀

          • WPIERIOOOOD! Aż odpadną rdzenie! 😀

    • ElektronicznyFan

      To prawda sam mam XZ Premium i absolutnie to majstersztyk jeśli chodzi o wydajność i energooszczędność. Pierwszy układ, który dobrze zaimplementowany (tu wielkie brawa dla Sony) nie throtluje więcej jak 10% gdzie przy takich cyfetkach jakie osiąga jest moc. OP5 i HTC 11 też pod tym względem na podium.

  • Paolo

    Naprawdę nie rozumiem tego hejtu na Snapdrgony 810. Mam, używam i telefon spisuje się bardzo dobrze, szczególnie na 7.1.1 żadnych wysokich temperatur nie uświadczam. Xperia Z5 pozdrawiam.

    • teges

      W Z5 trochę poprawili, ale po 15min nagrywania w 4k ci aparat się wyłączy (Z3+ wytrzymywała ok 4min).
      Wydajność szybko spadała do poziomu Snapa 800, a temperatura była nieprzyjemnie wysoka. Wysoka temperatura=szybsze zużycie baterii.

      • Silklash

        Przy SD810 producenci grzebali w oprogramowaniu aby obniżyć zegar procka i nagrzewanie. Sony zrobiło to samo.

        • teges

          To jak wytłumaczyć taką różnicę między Z3+ i Z5?
          Coś musieli poprawić.
          Nie zmienia to faktu, że procesor, to była porażka, a praktyki obniżania częstotliwości częste.

          • Silklash

            Pewnie bardziej grzebali przy SD810, ale wtedy pracowałem komórkach i znałem przedstawicieli HTC i Sony. Ten od HTC męczył mnie bełkotem marketingowym (chyba to m9), że niby SD810 był optymalizowany pod najlepszy czas ma baterii (taa…) Za to gościu od sony mówił, że ten układ to porażka i musieli też się z nim dużo bawić. Sony z3+ nie było popularne jak Z5 wtedy dlatego może zostało olane.

            Wtedy SD615 z m4 aqua też grzał się jak diaks lub Piecyk

          • @rtur

            Do Z5 napchali więcej rurek odprowadzających ciepło oraz nie żałowali pasty termoprzewodzącej.

        • Bart

          Potwierdzam. Mam sony Z5 i wydano ostatnio kolejna poprawkę obniżająca taktowanie S810, by telefon mniej się grzał. Wiec grzeje się mniej kosztem wydajności, która i tak jest wystarczająca, wiec nie plącze z tego powodu. S810 jest beznadziejny.

    • stark2991

      Jeśli to co piszą niżej to prawda, to nie ma się co dziwić. Ale pierwsze modele z S810 nie miały takiego szczęścia, albo inaczej, producentom nie chciało się aż tak obudować procka rurkami żeby to działało. Takie telefony jak HTC M9 czy Z3+ to była porażka. Xperia pod obciążeniem całkowicie wyłączała wydajne rdzenie, lub zostawiała tylko dwa z nich, ale nisko taktowane. W M9 działały wszystkie 4, ale w zakresie 1-1.4GHz. Telefony aż parzyły w rękę więc wydawano aktualizacje, które coraz bardziej obcinały moc układu. Wszystko to okupione dużym poborem prądu. Generacja 2015 to była IMO jedna z najsłabszych w historii, zwłaszcza po bardzo udanej generacji 2014

      • Adramel

        Qualcomm w panice robił 810. Apll wypuścił jako pierwszy 64bitowe procesory wiec Q na szybko wziął od ARMa ich projekt na 64bitowy układ i bez żadnych zmian wrzucił na krzem. Wyszło jak wyszło. Dopiero dla SD820 został opracowany ich autorski układ 64bitowy Kyro który już działał.

        • stark2991

          Dokładnie tak było.

  • Pabliell

    Układy w 7nm procesie będą dostępne najwcześniej dla urządzeń w 2019. Przyszły rok wciąż zdominowany będzie przez flagowe SoC w 10nm.

  • stark2991

    To jeszcze nic nie znaczy tak naprawdę, ale może dawać pewne sygnały co się będzie działo