当前位置:网站首页 >> 作文 >> 2023年cpu处理方式通用

2023年cpu处理方式通用

格式:DOC 上传日期:2023-04-30 20:20:16
2023年cpu处理方式通用
时间:2023-04-30 20:20:16     小编:zdfb

在日常的学习、工作、生活中,肯定对各类范文都很熟悉吧。相信许多人会觉得范文很难写?以下是小编为大家收集的优秀范文,欢迎大家分享阅读。

cpu处理方式篇一

cpu,被称为中央处理器,那么一定就是处理各种数据操作的,那么,cpu处理那么庞大的数据,采用了哪些技术呢?学习啦小编带你了解cpu的处理技术。

同时多线程simultaneous multithreading,简称smt。smt可通过复制处理器上的结构状态,让同一个处理器上的多个线程同步执行并共享处理器的执行资源,可最大限度地实现宽发射、乱序的超标量处理,提高处理器运算部件的利用率,缓和由于数据相关或cache未命中带来的访问内存延时。当没有多个线程可用时,smt处理器几乎和传统的宽发射超标量处理器一样。smt最具吸引力的是只需小规模改变处理器核心的设计,几乎不用增加额外的成本就可以显著地提升效能。多线程技术则可以为高速的运算核心准备更多的待处理数据,减少运算核心的闲置时间。这对于桌面低端系统来说无疑十分具有吸引力。intel从3.06ghz pentium 4开始,部分处理器将支持smt技术。

多核心,也指单芯片多处理器(chip multiprocessors,简称cmp)。cmp是由美国斯坦福大学提出的,其思想是将大规模并行处理器中的smp(对称多处理器)集成到同一芯片内,各个处理器并行执行不同的进程。这种依靠多个cpu同时并行地运行程序是实现超高速计算的一个重要方向,称为并行处理。与cmp比较,smt处理器结构的灵活性比较突出。但是,当半导体工艺进入0.18微米以后,线延时已经超过了门延迟,要求微处理器的设计通过划分许多规模更小、局部性更好的基本单元结构来进行。相比之下,由于cmp结构已经被划分成多个处理器核来设计,每个核都比较简单,有利于优化设计,因此更有发展前途。ibm 的power 4芯片和sun的majc5200芯片都采用了cmp结构。多核处理器可以在处理器内部共享缓存,提高缓存利用率,同时简化多处理器系统设计的复杂度。但这并不是说明,核心越多,性能越高,比如说16核的cpu就没有8核的cpu运算速度快,因为核心太多,而不能合理进行分配,所以导致运算速度减慢。在买电脑时请酌情选择。2005年下半年,intel和amd的新型处理器也将融入cmp结构。新安腾处理器开发代码为montecito,采用双核心设计,拥有最少18mb片内缓存,采取90nm工艺制造。它的每个单独的核心都拥有独立的l1,l2和l3 cache,包含大约10亿支晶体管。

smp(symmetric multi-processing),对称多处理结构的简称,是指在一个计算机上汇集了一组处理器(多cpu),各cpu之间共享内存子系统以及总线结构。在这种技术的支持下,一个服务器系统可以同时运行多个处理器,并共享内存和其他的主机资源。像双至强,也就是所说的二路,这是在对称处理器系统中最常见的一种(至强mp可以支持到四路,amd opteron可以支持1-8路)。也有少数是16路的。但是一般来讲,smp结构的机器可扩展性较差,很难做到100个以上多处理器,常规的一般是8个到16个,不过这对于多数的用户来说已经够用了。在高性能服务器和工作站级主板架构中最为常见,像unix服务器可支持最多256个cpu的系统。

构建一套smp系统的必要条件是:支持smp的硬件包括主板和cpu;支持smp的系统平台,再就是支持smp的应用软件。为了能够使得smp系统发挥高效的性能,操作系统必须支持smp系统,如winnt、linux、以及unix等等32位操作系统。即能够进行多任务和多线程处理。多任务是指操作系统能够在同一时间让不同的cpu完成不同的任务;多线程是指操作系统能够使得不同的cpu并行的完成同一个任务。

要组建smp系统,对所选的cpu有很高的要求,首先、cpu内部必须内置apic(advanced programmable interrupt controllers)单元。intel 多处理规范的核心就是高级可编程中断控制器(advanced programmable interrupt controllers–apics)的使用;再次,相同的产品型号,同样类型的cpu核心,完全相同的运行频率;最后,尽可能保持相同的产品序列编号,因为两个生产批次的cpu作为双处理器运行的时候,有可能会发生一颗cpu负担过高,而另一颗负担很少的情况,无法发挥最大性能,更糟糕的是可能导致死机。

numa即非一致访问分布共享存储技术,它是由若干通过高速专用网络连接起来的独立节点构成的系统,各个节点可以是单个的cpu或是smp系统。在numa中,cache 的一致性有多种解决方案,一般采用硬件技术实现对cache的一致性维护,通常需要操作系统针对numa访存不一致的特性(本地内存和远端内存访存延迟和带宽的不同)进行特殊优化以提高效率,或采用特殊软件编程方法提高效率。numa系统的例子。这里有3个smp模块用高速专用网络联起来,组成一个节点,每个节点可以有12个cpu。像sequent的系统最多可以达到64个cpu甚至256个cpu。显然,这是在smp的基础上,再用numa的技术加以扩展,是这两种技术的结合。

乱序执行(out-of-orderexecution),是指cpu允许将多条指令不按程序规定的顺序分开发送给各相应电路单元处理的技术。这样将根据个电路单元的状态和各指令能否提前执行的具体情况分析后,将能提前执行的指令立即发送给相应电路单元执行,在这期间不按规定顺序执行指令,然后由重新排列单元将各执行单元结果按指令顺序重新排列。采用乱序执行技术的目的是为了使cpu内部电路满负荷运转并相应提高了cpu的运行程序的速度。

(branch)指令进行运算时需要等待结果,一般无条件分枝只需要按指令顺序执行,而条件分枝必须根据处理后的结果,再决定是否按原先顺序进行。

许多应用程序拥有更为复杂的读取模式(几乎是随机地,特别是当cache hit不可预测的时候),并且没有有效地利用带宽。典型的这类应用程序就是业务处理软件,即使拥有如乱序执行(out of order execution)这样的cpu特性,也会受内存延迟的限制。这样cpu必须得等到运算所需数据被除数装载完成才能执行指令(无论这些数据来自cpu cache还是主内存系统)。当前低段系统的内存延迟大约是120-150ns,而cpu速度则达到了4ghz以上,一次单独的内存请求可能会浪费200-300次cpu循环。即使在缓存命中率(cache hit rate)达到99.9%的情况下,cpu也可能会花50%的时间来等待内存请求的结束-比如因为内存延迟的缘故。

在处理器内部整合内存控制器,使得北桥芯片将变得不那么重要,改变了处理器访问主存的方式,有助于提高带宽、降低内存延时和提升处理器性制造工艺:intel的i5可以达到28纳米,在将来的cpu制造工艺可以达到22纳米。

全文阅读已结束,如果需要下载本文请点击

下载此文档
a.付费复制
付费获得该文章复制权限
特价:5.99元 10元
微信扫码支付
已付款请点这里
b.包月复制
付费后30天内不限量复制
特价:9.99元 10元
微信扫码支付
已付款请点这里 联系客服