Ya, kita semua tahu bahwa perangkat iOS Apple memiliki prosesor A4, atau A5, atau A6 di dalamnya... tapi apa itu? Ini semua adalah jenis sistem-on-a-chip, atau singkatnya SoC, dan mereka lebih dari sekadar prosesor: mereka setara dengan seseorang yang meletakkan hampir seluruh desktop PC pada satu chip seukuran bayi kuku.
Lebih dari pukul Ars Technica, Andrew Cunningham telah memposting primer yang sangat penting tentang SoC dan apa yang membuat Apple berbeda dari Qualcomm atau Samsung.
Saya sangat merekomendasikan membaca semuanya jika Anda ingin memahami dasar-dasar prosesor smartphone dan tablet, Namun meski Anda tidak tertarik dengan hal itu, Cunningham punya prediksi menarik tentang seperti apa tampilan prosesor A7 Apple. Suka:
Di sisi CPU, kami bertaruh bahwa Apple akan fokus pada peningkatan kinerja dari Swift, baik dengan meningkatkan efisiensi arsitektur atau meningkatkan kecepatan clock. Versi quad-core secara teoritis dimungkinkan, tetapi hingga saat ini Apple telah berfokus pada lebih sedikit core CPU cepat daripada lebih banyak, yang lebih lambat, kemungkinan besar dari kekhawatiran tentang konsumsi daya dan ukuran mati total SoC (semakin besar chip, semakin mahal biaya produksinya, dan Apple menyukai keuntungannya margin). Untuk GPU, GPU seri PowerVR SGX 6 generasi berikutnya dari Imagination sudah dekat. Karena Apple telah menggunakan Imajinasi secara eksklusif dalam chip kustomnya hingga sekarang, sepertinya tidak akan mengguncang kapal ini.
Dengan kata lain, A7 masih bisa menjadi prosesor dual-core, tetapi itu bukan masalah karena GPU akan merokok dengan cepat dan benar-benar generasi berikutnya, dan Apple memiliki perusahaan yang kuat. kontrol atas semua ekosistem iOS yang dapat membuat semuanya berubah sehingga semuanya terasa menyenangkan dan cepat dan memanfaatkan GPU mutakhir kapan pun mungkin. Grafik, bukan kecepatan pemrosesan, masih menjadi prioritas Apple dalam pengembangan iOS.
Ada lebih banyak minat dalam artikel Cunningham. Pastikan untuk membacanya jika Anda mendapat kesempatan.
Sumber: Ars Technica