books 《Java 性能优化权威指南》纸质实体书免费送啦!

有需要该书的朋友请回帖沟通寄送方式,谢谢!

Java 性能优化权威指南

Java性能优化权威指南Java性能优化权威指南

作者

  • Charlie Hunt
  • Binu John

Charlie Hunt 现任 Salesforce 公司的性能工程架构师。曾任 Oracle 公司首席 JVM 性能工程师,负责 HotSpot Java 虚拟机和 Java SE 类库性能的改进。Charlie 拥有美国伊利诺伊理工大学的计算机科学硕士学位、爱荷华州立大学的计算机科学学士学位。

Binu John 是世界上最大的社交网站创建平台 Ning.com 的高级性能工程师。他目前的职责是着力改善 Ning 平台的性能和扩展性,以支持每月数百万 PV 的访问量。Binu 拥有美国爱荷华大学生物医学工程和计算机科学硕士学位。

译者

  • 柳飞
  • 陆明刚

内容简介

Java 性能优化圣经!Java 之父重磅推荐!

本书由曾任职于 Oracle/Sun 的性能优化专家编写,系统而详细地讲解了性能优化的各个方面,帮助你学习 Java 虚拟机的基本原理、掌握一些监控 Java 程序性能的工具,从而快速找到程序中的性能瓶颈,并有效改善程序的运行性能。

Java 性能优化的任何问题,都可以从本书中找到答案!

目录

第 1 章 策略、方法和方法论  1
1.1  性能问题的现状  1
1.2  性能分析的两种方法:自顶向下和自底向上  4
1.2.1  自顶向下  4
1.2.2  自底向上  5
1.3  选择正确的平台并评估系统性能  5
1.3.1  选择正确的 CPU 架构  6
1.3.2  评估系统性能  7
1.4  参考资料  7
第 2 章 操作系统性能监控  8
2.1  定义  8
2.2  CPU 使用率  9
2.2.1  监控 CPU 使用率:Windows  9
2.2.2  监控 CPU 使用率:Windows typeperf  12
2.2.3  监控 CPU 使用率:Linux  13
2.2.4  监控 CPU 使用率:Solaris  14
2.2.5  命令行监控 CPU 使用率:Linux 和 Solaris  16
2.3  CPU 调度程序运行队列  19
2.3.1  监控 CPU 调度程序运行队列:Windows  19
2.3.2  监控 CPU 调度程序运行队列:Solaris  21
2.3.3  监控 CPU 调度程序运行队列:Linux  21
2.4  内存使用率  22
2.4.1  监控内存利用率:Windows  22
2.4.2  监控内存使用率:Solaris  23
2.4.3  监控内存使用率:Linux  24
2.4.4  监控锁竞争:Solaris  25
2.4.5  监控锁竞争:Linux  26
2.4.6  监控锁竞争:Windows  27
2.4.7  隔离竞争锁  27
2.4.8  监控抢占式上下文切换  27
2.4.9  监控线程迁移  28
2.5  网络 I/O 使用率  28
2.5.1  监控网络 I/O 使用率:Solaris  29
2.5.2  监控网络 I/O 使用率:Linux  30
2.5.3  监控网络 I/O 使用率:Windows  30
2.5.4  应用性能改进的考虑  31
2.6  磁盘 I/O 使用率  31
2.7  其他命令行工具  34
2.8  监控 CPU 使用率:SPARC T 系列系统  35
2.9  参考资料  36
第 3 章 JVM 概览  38
3.1  HotSpot VM 的基本架构  38
3.2  HotSpot VM 运行时  40
3.2.1  命令行选项  40
3.2.2  VM 生命周期  41
3.2.3  VM 类加载  44
3.2.4  字节码验证  46
3.2.5  类数据共享  47
3.2.6  解释器  48
3.2.7  异常处理  49
3.2.8  同步  50
3.2.9  线程管理  51
3.2.10  C++ 堆管理  53
3.2.11  Java 本地接口  54
3.2.12  VM 致命错误处理  55
3.3  HotSpot VM 垃圾收集器  56
3.3.1  分代垃圾收集  56
3.3.2  新生代  58
3.3.3  快速内存分配  60
3.3.4  垃圾收集器  60
3.3.5  Serial 收集器  61
3.3.6  Parallel 收集器:吞吐量为先!  62
3.3.7  Mostly-Concurrent 收集器:低延迟为先!  62
3.3.8  Garbage-First 收集器:CMS 替代者  64
3.3.9  垃圾收集器比较  64
3.3.10  应用程序对垃圾收集器的影响  65
3.3.11  简单回顾收集器历史  65
3.4  HotSpot VM JIT 编译器  65
3.4.1  类型继承关系分析  67
3.4.2  编译策略  67
3.4.3  逆优化  68
3.4.4  Client JIT 编译器概览  69
3.4.5  Server JIT 编译器概览  69
3.4.6  静态单赋值——程序依赖图  69
3.4.7  未来增强展望  71
3.5  HotSpot VM 自适应调优  71
3.5.1  Java 1.4.2 的默认值  71
3.5.2  Java 5 自动优化的默认值  71
3.5.3  Java 6 Update 18 更新后的默认优化值  73
3.5.4  自适应 Java 堆调整  74
3.5.5  超越自动优化  75
3.6  参考资料  75
第 4 章 JVM 性能监控  77
4.1  定义  77
4.2  垃圾收集  78
4.2.1  重要的垃圾收集数据  78
4.2.2  垃圾收集报告  78
4.2.3  垃圾收集数据的离线分析  86
4.2.4  图形化工具  89
4.3  JIT 编译器  103
4.4  类加载  104
4.5  Java 应用监控  106
4.6  参考资料  109
第 5 章 Java 应用性能分析  110
5.1  术语  111
5.1.1  通用性能分析术语  111
5.1.2  Oracle Solaris Studio Performance Analyzer 术语  112
5.1.3  NetBeans Profiler 术语  112
5.2  Oracle Solaris Studio Performance Analyzer  112
5.2.1  支持平台  113
5.2.2  下载 / 安装 Oracle Solaris Studio Performance Analyzer  114
5.2.3  使用 Oracle Solaris Studio Performance Analyzer 抓取性能数据  114
5.2.4  查看性能数据  118
5.2.5  数据表示  125
5.2.6  过滤性能数据  128
5.2.7  命令行工具 er_print  129
5.3  NetBeans Profiler  135
5.3.1  支持平台  136
5.3.2  下载安装 NetBeans Profiler  136
5.3.3  开始方法分析会话  137
5.3.4  Controls 子面板  143
5.3.5  Status 子面板  143
5.3.6  Profiling Results 子面板  143
5.3.7  Saved Snapshots 子面板  144
5.3.8  View 子面板  144
5.3.9  Basic Telemetry 子面板  144
5.3.10  查看动态结果  145
5.3.11  对结果进行快照  145
5.3.12  启动内存分析会话  146
5.3.13  查看实时结果  148
5.3.14  对结果进行快照  150
5.3.15  定位内存泄漏  150
5.3.16  分析堆转储  151
5.4  参考资料  152
第 6 章 Java 应用性能分析技巧  153
6.1  性能优化机会  153
6.2  系统或内核态 CPU 使用  154
6.3  锁竞争  161
6.4  Volatile 的使用  171
6.5  调整数据结构的大小  172
6.5.1  StringBuilder 或 StringBuffer 大小的调整  172
6.5.2  Java Collection 类大小调整  175
6.6  增加并行性  179
6.7  过高的 CPU 使用率  181
6.8  其他有用的分析提示  182
6.9  参考资料  184
第 7 章 JVM 性能调优入门  185
7.1  方法  185
7.1.1  假设条件  187
7.1.2  测试基础设施需求  188
7.2  应用程序的系统需求  188
7.2.1  可用性  188
7.2.2  可管理性  188
7.2.3  吞吐量  189
7.2.4  延迟及响应性  189
7.2.5  内存占用  189
7.2.6  启动时间  189
7.3  对系统需求分级  190
7.4  选择 JVM 部署模式  190
7.4.1  单 JVM 部署模式  190
7.4.2  多 JVM 部署模式  190
7.4.3  通用建议  191
7.5  选择 JVM 运行模式  191
7.5.1  Client 模式或 Server 模式  191
7.5.2  32 位 /64 位 JVM  192
7.5.3  垃圾收集器  192
7.6  垃圾收集调优基础  193
7.6.1  性能属性  193
7.6.2  原则  193
7.6.3  命令行选项及 GC 日志  194
7.7  确定内存占用  197
7.7.1  约束  197
7.7.2  HotSpot VM 堆的布局  197
7.7.3  堆大小调优着眼点  200
7.7.4  计算活跃数据大小  201
7.7.5  初始堆空间大小配置  202
7.7.6  其他考量因素  203
7.8  调优延迟 / 响应性  204
7.8.1  输入  205
7.8.2  优化新生代的大小  205
7.8.3  优化老年代的大小  207
7.8.4  为 CMS 调优延迟  210
7.8.5  Survivor 空间介绍  212
7.8.6  解析晋升阈值  214
7.8.7  监控晋升阈值  215
7.8.8  调整 Survivor 空间的容量  216
7.8.9  显式的垃圾收集  222
7.8.10  并发永久代垃圾收集  223
7.8.11  调优 CMS 停顿时间  224
7.8.12  下一步  225
7.9  应用程序吞吐量调优  225
7.9.1  CMS 吞吐量调优  225
7.9.2  Throughput 收集器调优  226
7.9.3  Survivor 空间调优  228
7.9.4  调优并行垃圾收集线程  231
7.9.5  在 NUMA 系统上部署  231
7.9.6  下一步  232
7.10  极端示例  232
7.11  其他性能命令行选项  232
7.11.1  实验性(最近最大)优化  232
7.11.2  逃逸分析  233
7.11.3  偏向锁  233
7.11.4  大页面支持  234
7.12  参考资料  236
第 8 章 Java 应用的基准测试  237
8.1  基准测试所面临的挑战  237
8.1.1  基准测试的预热阶段  238
8.1.2  垃圾收集  240
8.1.3  使用 Java Time 接口  240
8.1.4  剔除无效代码  241
8.1.5  内联  247
8.1.6  逆优化  251
8.1.7  创建微基准测试的注意事项  256
8.2  实验设计  257
8.3  使用统计方法  258
8.3.1  计算均值  258
8.3.2  计算标准差  258
8.3.3  计算置信区间  259
8.3.4  使用假设测试  260
8.3.5  使用统计方法的注意事项  262
8.4  参考文献  263
8.5  参考资料  263
第 9 章 多层应用的基准测试  264
9.1  基准测试难题  264
9.2  企业级应用基准测试的考量  266
9.2.1  定义被测系统  266
9.2.2  制定微基准测试  266
9.2.3  定义用户交互模型  267
9.2.4  定义性能指标  270
9.2.5  扩展基准测试  273
9.2.6  用利特尔法则验证  274
9.2.7  思考时间  275
9.2.8  扩展性分析  278
9.2.9  运行基准测试  278
9.3  应用服务器监控  281
9.3.1  GlassFish 监控  281
9.3.2  监控子系统  286
9.3.3  Solaris  287
9.3.4  Linux  288
9.3.5  Windows  288
9.3.6  外部系统的性能  289
9.3.7  磁盘 I/O  292
9.3.8  监控和调优资源池  293
9.4  企业级应用性能分析  294
9.5  参考资料  295
第 10 章 Web 应用的性能调优  297
10.1  Web 应用的基准测试  298
10.2  Web 容器的组件  298
10.2.1  HTTP 连接器  299
10.2.2  Servlet 引擎  300
10.3  Web 容器的监控和性能调优  300
10.3.1  容器的开发和生产模式  300
10.3.2  安全管理器  301
10.3.3  JVM 调优  301
10.3.4  HTTP 服务和 Web 容器  303
10.3.5  HTTP 监听器  303
10.4  最佳实践  315
10.4.1  Servlet 和 JSP 最佳实践  315
10.4.2  内容缓存  324
10.4.3  会话持久化  328
10.4.4  HTTP 服务器文件缓存  329
10.5  参考资料  333
第 11 章 Web Service 的性能  334
11.1  XML 的性能  334
11.1.1  XML 处理的生命周期  335
11.1.2  解析 / 解编组  335
11.1.3  访问  338
11.1.4  修改  338
11.1.5  序列化 / 编组  339
11.2  验证  339
11.3  解析外部实体  341
11.4  XML 文档的局部处理  343
11.5  选择合适的 API  346
11.6  JAX-WS 参考实现栈  349
11.7  Web Service 基准测试  350
11.8  影响 Web Service 性能的因素  353
11.8.1  消息大小的影响  353
11.8.2  不同 Schema 类型的性能特征  355
11.8.3  终端服务器的实现  358
11.8.4  处理程序的性能  359
11.9  最佳性能实践  361
11.9.1  二进制负载的处理  361
11.9.2  处理 XML 文档  365
11.9.3  使用 MTOM 发送 XML 文档  365
11.9.4  使用 Provider 接口  368
11.9.5  快速信息集  370
11.9.6  HTTP 压缩  372
11.9.7  Web Service 客户端的性能  373
11.10  参考资料  374
第 12 章 Java 持久化及 Enterprise Java Bean 的性能  375
12.1  EJB 编程模型  376
12.2  Java 持久化 API 及其参考实现  376
12.3  监控及调优 EJB 容器  379
12.3.1  线程池  380
12.3.2  Bean 池和缓存  382
12.3.3  EclipseLink 会话缓存  385
12.4  事务隔离级  386
12.5  Enterprise Java Bean 的最佳实践  387
12.5.1  简要说明使用的 EJB 基准测试  387
12.5.2  EJB 2.1  388
12.5.3  EJB 3.0  400
12.6  Java 持久化最佳实践  403
12.6.1  JPA 查询语言中的查询  403
12.6.2  查询结果缓存  405
12.6.3  FetchType  406
12.6.4  连接池  408
12.6.5  批量更新  409
12.6.6  选择正确的数据库锁策略  411
12.6.7  不带事务的读取  411
12.6.8  继承  411
12.7  参考资料  412
附录 A  重要的 HotSpot VM 选项  413
附录 B  性能分析技巧示例源代码  429
B.1  锁竞争实现 1  429
B.2  锁竞争实现 2  439
B.3  锁竞争实现 3  449
B.4  锁竞争实现 4  459
B.5  锁竞争实现 5  469
B.6  调整容量变化 1  481
B.7  调整容量变化 2  492
B.8  增加并发性的单线程实现  504
B.9  增加并发性的多线程实现  514

其他

  • 出版社:人民邮电出版社
  • 副标题:Java 性能优化权威指南
  • 原作名:Java Performance
  • 出版年:2014-3
  • 总页数:540
  • 定 价:109.00 元
  • 装 帧:平装
  • ISBN:9787115342973

关于『书单』

书单是黑客派社区的一个纸质书共享活动,所有书均来自捐赠,原则上当前的书籍持有者有义务将书寄送给需要的会员。我们鼓励你在书籍上留下笔迹,任何信息都行,让其他人可以看到一些有意思的内容也是蛮不错的 sweat_smile

共享意味着什么

一旦你共享了一本书,就会使用你的社区账号自动发一篇书籍共享帖,这意味着你做了一个承诺:将书送到需要的人手中。如果有同城的书籍需求者回帖,就面交吧!

如何参与

  1. 使用微信扫描如下二维码,进入黑客派社区小程序
    3c04bd33b54a493aa97107a94a1ae706.png
  2. 按照小程序的指引开始即可

一点思考

类似共享书籍的事情有很多人做过,比如:

  • 摆摆书架
  • 青番茄
  • 书巢
  • 丢书大作战
  • 很多社区的书籍交换

大家的出发点都是想让这个世界变得更好。黑客派的『书单』将作为长期活动持续下去,大家随时都能参与进来,让你我的生活变得更丰富有趣!