目录
什么是上下文切换
即使是单核cpu也支持多线程执行代码,cpu通过给每个线程分配cpu时间片来实现这个机制。时间片是cpu分配给各个线程的时间,因为时间片非常短,所以cpu通过不停地切换线程执行,让我们感觉多个线程时同时执行的,时间片一般是几十毫秒(ms)。
cpu通过时间片分配算法来循环执行任务,当前任务执行一个时间片后会切换到下一个任务。但是,在切换前会保存上一个任务的状态,以便下次切换回这个任务时,可以再次加载这个任务的状态,从任务保存到再加载的过程就是一次上下文切换。
这就像我们同时读两本书,当我们在读一本英文的技术书籍时,发现某个单词不认识,于是便打开中英文词典,但是在放下英文书籍之前,大脑必须先记住这本书读到了多少页的第多少行,等查完单词之后,能够继续读这本书。这样的切换是会影响读书效率的,同样上下文切换也会影响多线程的执行速度。
上下文切换代码测试
下面的代码演示串行和并发执行并累加操作的时间:
public class contextswitchtest { private static final long count = 10000; public static void main(string[] args) throws exception { concurrency(); serial(); } private static void concurrency() throws exception { long start = system.currenttimemillis(); thread thread = new thread(new runnable(){ public void run() { int a = 0; for (int i = 0; i < count; i ) { a = 5; } } }); thread.start(); int b = 0; for (long i = 0; i < count; i ) { b --; } thread.join(); long time = system.currenttimemillis() - start; system.out.println("concurrency:" time "ms, b = " b); } private static void serial() { long start = system.currenttimemillis(); int a = 0; for (long i = 0; i < count; i ) { a = 5; } int b = 0; for (int i = 0; i < count; i ) { b --; } long time = system.currenttimemillis() - start; system.out.println("serial:" time "ms, b = " b ", a = " a); } }
修改上面的count值,即修改循环次数,看一下串行运行和并发运行的时间测试结果:
从表中可以看出,100次并发执行累加以下,串行执行和并发执行的运行速度总体而言差不多,1万次以下串行执行甚至还可以说是略快。为什么并发执行的速度会比串行慢呢?这就是因为线程有创建和上下文切换的开销。
引起线程上下文切换的原因
对于我们经常使用的抢占式操作系统而言,引起线程上下文切换的原因大概有以下几种:
- 当前执行任务的时间片用完之后,系统cpu正常调度下一个任务
- 当前执行任务碰到io阻塞,调度器将此任务挂起,继续下一任务
- 多个任务抢占锁资源,当前任务没有抢到锁资源,被调度器挂起,继续下一任务
- 用户代码挂起当前任务,让出cpu时间
- 硬件中断
如何减少上下文切换
既然上下文切换会导致额外的开销,因此减少上下文切换次数便可以提高多线程程序的运行效率。减少上下文切换的方法有无锁并发编程、cas算法、使用最少线程和使用协程。
- 无锁并发编程。多线程竞争时,会引起上下文切换,所以多线程处理数据时,可以用一些办法来避免使用锁,如将数据的id按照hash取模分段,不同的线程处理不同段的数据
- cas算法。java的atomic包使用cas算法来更新数据,而不需要加锁
- 使用最少线程。避免创建不需要的线程,比如任务很少,但是创建了很多线程来处理,这样会造成大量线程都处于等待状态
- 协程。在单线程里实现多任务的调度,并在单线程里维持多个任务间的切换