1 优化1
1.1 优化:9条
00.汇总
1.使用 java.util.Optional 代替 null
2.返回空集合/数组,而不是 null
3.使用 var
4.定义局部变量 final
5.使用静态导入
6.Prefer fully qualified imports(更倾向于使用完全限定的导入)
7.在长方法/构造函数声明中将每个参数放在新行上
8.创建不可变的 POJO 或使用 record
9.将 Builder 模式用于具有许多参数/可选参数的类
01.使用 java.util.Optional 代替 null
a.说明
通过使用 java.util.Optional,将强制客户端检查该值是否存在
考虑 getBeer(...) 下面的方法,该方法的调用者期望接收一个 Beer 对象
并且从方法 API 中不清楚 Beer 可以是 null 顺便说一句
调用者可能会忘记添加 null 检查,并且可能会收到 NullPointerException 程序错误
b.以前
public Beer getBeer(Customer customer) {
return customer.age < 18
? null
: this.beerCatalogue.get(0);
}
c.以后
public Optional<Beer> getBeer(Customer customer) {
return customer.age < 18
? empty()
: Optional.of(this.beerCatalogue.get(0));
}
02.返回空集合/数组,而不是 null
a.以前
public List<Beer> getBeerCatalogue(Customer customer) {
return customer.age < 18
? null
: this.beerCatalogue;
}
b.以后
public List<Beer> getBeerCatalogue(Customer customer) {
return customer.age < 18
? emptyList()
: this.beerCatalogue;
}
03.使用 var
a.说明
类型推理减少了样板代码的数量并降低了认知复杂性,从而提高了可读性
b.以前
static FieldMapper fieldMapper(FieldDescriptor fieldDescriptor, SchemaDefinition schemaDefinition) {
ValueGetter valueGetter = valueGetter(schemaDefinition, fieldDescriptor);
return (dynamicMessageBuilder, row) -> {
Iterable<DynamicMessage> iterable = (Iterable<DynamicMessage>) valueGetter.get(row);
for (Object entry : iterable) {
dynamicMessageBuilder.addRepeatedField(fieldDescriptor, entry);
}
};
}
c.以后
static FieldMapper fieldMapper(FieldDescriptor fieldDescriptor, SchemaDefinition schemaDefinition) {
var valueGetter = valueGetter(schemaDefinition, fieldDescriptor);
return (dynamicMessageBuilder, row) -> {
var iterable = (Iterable<DynamicMessage>) valueGetter.get(row);
for (var entry : iterable) {
dynamicMessageBuilder.addRepeatedField(fieldDescriptor, entry);
}
};
}
04.定义局部变量 final
a.说明
定义局部变量 final 向程序提示该变量不能被重新分配,这通常会导致更好的代码质量并有助于避免错误
b.以前
static FieldMapper fieldMapper(FieldDescriptor fieldDescriptor, SchemaDefinition schemaDefinition) {
var valueGetter = valueGetter(schemaDefinition, fieldDescriptor);
return (dynamicMessageBuilder, row) -> {
var iterable = (Iterable<DynamicMessage>) valueGetter.get(row);
for (var entry : iterable) {
dynamicMessageBuilder.addRepeatedField(fieldDescriptor, entry);
}
};
}
c.以后
static FieldMapper fieldMapper(FieldDescriptor fieldDescriptor, SchemaDefinition schemaDefinition) {
final var valueGetter = valueGetter(schemaDefinition, fieldDescriptor);
return (dynamicMessageBuilder, row) -> {
final var iterable = (Iterable<DynamicMessage>) valueGetter.get(row);
for (final var entry : iterable) {
dynamicMessageBuilder.addRepeatedField(fieldDescriptor, entry);
}
};
}
05.使用静态导入
a.说明
静态导入(Static Imports)是 Java 编程语言的一个特性,它允许在类中直接使用静态成员(字段和方法),而不需要使用类名来限定
静态导入使代码不那么冗长,因此更具可读性。
注意,这条规则有一个极端情况 - Java 静态导入中有一堆静态方法 List.of()、Set.of()、Map.of()
这会损害代码质量,使其模棱两可。因此,使用此规则时,需要确认这种静态导入是否使代码更具可读性?
b.以前
public static List<FieldGetter> fieldGetters(SchemaDefinition schemaDefinition,
FieldName fieldName,
FieldDescriptor fieldDescriptor) {
final var schemaField = SchemaUtils.findFieldByName(schemaDefinition, fieldName).orElseThrow(SchemaFieldNotFoundException::new);
if (fieldDescriptor.getJavaType() == FieldDescriptor.JavaType.MESSAGE) {
return schemaField.getFields().stream()
.flatMap(it -> fieldGetters(schemaDefinition, it.getName(), it.getDescriptor()))
.collect(Collectors.toList());
}
return Collections.emptyList();
}
c.以后
public static List<FieldGetter> fieldGetters(SchemaDefinition schemaDefinition,
FieldName fieldName,
FieldDescriptor fieldDescriptor) {
final var schemaField = findFieldByName(schemaDefinition, fieldName).orElseThrow(SchemaFieldNotFoundException::new);
if (fieldDescriptor.getJavaType() == MESSAGE) {
return schemaField.getFields().stream()
.flatMap(it -> fieldGetters(schemaDefinition, it.getName(), it.getDescriptor()))
.collect(toList());
}
return emptyList();
}
06.Prefer fully qualified imports(更倾向于使用完全限定的导入)
a.说明
Prefer fully qualified imports是一种编码风格建议,特别是在 Java 等编程语言中
它建议开发人员在代码中使用完全限定的导入语句,而不是使用通配符(*)或静态导入
b.以前
相比之下,通配符导入语句可能会导致一些问题。例如,如果使用了通配符导入:
import java.util.*;
-----------------------------------------------------------------------------------------------------
这会导入 java.util 包中的所有类和成员。虽然这样可以减少代码量,但可能会造成以下问题:
命名冲突: 如果不小心引入了具有相同名称的类或成员,可能会导致命名冲突,使得代码难以理解和维护
不清晰: 读者可能无法轻易地确定特定类或成员的来源,需要查看导入语句才能确定
性能问题: Java 编译器可能需要额外的时间来解析通配符导入语句,特别是在大型项目中
-----------------------------------------------------------------------------------------------------
因此,推荐使用完全限定的导入语句,这样可以:
明确代码中使用的类和成员的来源
避免命名冲突和意外的行为
提高代码的可读性和可维护性
c.以后
完全限定的导入语句是指导入特定类或成员时使用完整的类名或成员名称
import java.util.ArrayList;
import java.util.List;
-----------------------------------------------------------------------------------------------------
这里的导入语句完全限定了要导入的类(ArrayList 和 List),并且清晰地表明了代码中使用的类的来源
然而,对于静态成员的导入,有时静态导入可以改善代码的可读性。在这种情况下,尽管通配符导入要小心使用,但静态导入可以使得代码更加清晰
07.在长方法/构造函数声明中将每个参数放在新行上
a.说明
拥有特定的代码风格并在整个代码库中使用它可以降低认知复杂性,这意味着代码更易于阅读和理解
b.以前
public void processUserData(String name, int age, String address, double salary, boolean isEmployed, String occupation) {
//...
}
// or
public void processUserData(
String name, int age, String address, double salary, boolean isEmployed, String occupation
) {
//...
}
// or
public void processUserData(String name, int age,
String address, double salary, boolean isEmployed, String occupation
) {
//...
}
// or
public void processUserData(String name, int age, String address, double salary,
boolean isEmployed, String occupation
) {
//...
}
c.以后
public void processUserData(String name,
int age,
String address,
double salary,
boolean isEmployed,
String occupation) {
//...
}
// or
public void processUserData(
String name,
int age,
String address,
double salary,
boolean isEmployed,
String occupation) {
//...
}
08.创建不可变的 POJO 或使用 record
a.说明
不可变类比可变类更容易设计、实现和使用。它们不易出错,也更安全
使用不可变对象,不必担心同步或对象状态(对象是否初始化?
要使类不可变
创建类 final 中的所有字段
创建一个 constructor / builder 来初始化所有字段
如果该值是可选的(可以是 null ),请使用 java.util.Optional
使用不可变集合或在 getter 中返回不可变视图( Collections.unmodifiableList(...) 等)
不要公开修改对象状态的方法
b.以前
public class User {
private String name;
private int age;
private String address;
private List<Claim> claims;
public String getName() {
return name;
}
public void setName(String name) {
this.name = name;
}
public int getAge() {
return age;
}
public void setAge(int age) {
this.age = age;
}
public String getAddress() {
return address;
}
public void setAddress(String address) {
this.address = address;
}
public List<Claim> getClaims() {
return claims;
}
public void setClaims(List<Claim> claims) {
this.claims = claims;
}
// ...
}
c.以后
public class User {
private final String name;
private final int age;
private final String address;
private final List<Claim> claims;
public User(String name, int age, String address, List<Claim> claims) {
this.name = requireNonNull(name);
this.age = requirePositive(age);
this.address = requireNonNull(address);
this.claims = List.copyOf(requireNonNull(claims));
}
public String getName() {
return name;
}
public int getAge() {
return age;
}
public String getAddress() {
return address;
}
public List<Claim> getClaims() {
return claims;
}
// ...
}
d.以后record
public record User(String name, int age, String address, List<Claim> claims) {
public User {
requireNonNull(name);
requirePositive(age);
requireNonNull(address);
claims = List.copyOf(requireNonNull(claims));
}
}
09.将 Builder 模式用于具有许多参数/可选参数的类
a.说明
Builder 模式模拟 Python/Scala/Kotlin 中可用的命名参数
它使客户端代码易于读取和编写,并能够更流畅地使用具有默认值的可选/参数
b.以前
public class User {
private final UUID id;
private final Instant createdAt;
private final Instant updatedAt;
private final String firstName;
private final String lastName;
private final Email email;
private final Optional<Integer> age;
private final Optional<String> middleName;
private final Optional<Address> address;
public User(UUID id,
Instant createdAt,
Instant updatedAt,
String firstName,
String lastName,
Email email,
Optional<Integer> age,
Optional<String> middleName,
Optional<Address> address) {
this.id = requireNonNull(id);
this.createdAt = requireNonNull(createdAt);
this.updatedAt = requireNonNull(updatedAt);
this.firstName = requireNonNull(firstName);
this.lastName = requireNonNull(lastName);
this.email = requireNonNull(email);
this.age = requireNonNull(age);
this.middleName = requireNonNull(middleName);
this.address = requireNonNull(address);
if (firstName.isBlank()) {
// throw exception
}
// ... validation
}
// ...
}
// And then you would write:
public User createUser() {
final var user = new User(
randomUUID(),
now(),
now().minus(1L, DAYS),
// firstName, lastName and email are String, what if you
// mix up parameters order in constructor?
"first_name",
"last_name",
"[email protected]",
empty(),
Optional.of("middle_name"),
empty()
);
// ...
return user;
}
c.以后
public class User {
private final UUID id;
private final Instant createdAt;
private final Instant updatedAt;
private final String firstName;
private final String lastName;
private final String email;
private final Optional<Integer> age;
private final Optional<String> middleName;
private final Optional<Address> address;
// private constructor
private User(Builder builder) {
this.id = requireNonNull(builder.id);
this.createdAt = requireNonNull(builder.createdAt);
this.updatedAt = requireNonNull(builder.updatedAt);
this.firstName = requireNonNull(builder.firstName);
this.lastName = requireNonNull(builder.lastName);
this.email = requireNonNull(builder.email);
this.age = requireNonNull(builder.age);
this.middleName = requireNonNull(builder.middleName);
this.address = requireNonNull(builder.address);
if (firstName.isBlank()) {
// throw exception
}
// ... validation
}
// ...
public static class Builder {
private UUID id;
private Instant createdAt;
private Instant updatedAt;
private String firstName;
private String lastName;
private String email;
// Optionals are empty by default
private Optional<Integer> age = empty();
private Optional<String> middleName = empty();
private Optional<Address> address = empty();
private Builder() {
}
public static Builder newUser() {
// You can easily add (lazy) default parameters
return new Builder()
.id(randomUUID())
.createdAt(now())
.updatedAt(now());
}
public Builder id(UUID id) {
this.id = id;
return this;
}
public Builder createdAt(Instant createdAt) {
this.createdAt = createdAt;
return this;
}
// ...
public Builder address(Address address) {
this.address = Optional.ofNullable(address);
return this;
}
public User build() {
return new User(this);
}
}
}
// And then:
public User createUser() {
// You end up writing more code in User class but the
// class API becomes more concise
final var user = newUser()
.updatedAt(now().minus(1L, DAYS))
.firstName("first_name")
.lastName("last_name")
.email("[email protected]")
.middleName("middle_name")
.build();
// ...
return user;
}
1.2 占位:5种
00.汇总
StringUtils.replace
正则表达式Matcher
StringSubstitutor
MessageFormat.format
String.format
00.示例
a.模板
String TEMPLATE = "姓名:${name!},年龄:${age!},手机号:${phone!}";
b.待填充参数
private static final Map<String, String> ARGS = new HashMap<String, String>() {{
put("name", "张三");
put("phone", "10086");
put("age", "21");
}};
01.StringUtils.replace
a.定义
String replace(String text, String searchString, String replacement);
b.示例
String remark = TEMPLATE;
for (Map.Entry<String, String> entry : ARGS.entrySet()) {
remark = StringUtils.replace(remark, "${" + entry.getKey() + "!}", entry.getValue());
}
System.out.println(remark);
02.正则表达式Matcher
a.示例
Pattern TEMPLATE_ARG_PATTERN = Pattern.compile("\\$\\{(.+?)!}"); // ${param!}
Matcher m = TEMPLATE_ARG_PATTERN.matcher(TEMPLATE);
StringBuffer sb = new StringBuffer();
while (m.find()) {
String arg = m.group(1);
String replaceStr = ARGS.get(arg);
m.appendReplacement(sb, replaceStr != null ? replaceStr : "");
}
m.appendTail(sb);
System.out.println(sb.toString());
03.StringSubstitutor
a.定义
public <V> StringSubstitutor(Map<String, V> valueMap);
public <V> StringSubstitutor(Map<String, V> valueMap, String prefix, String suffix);
b.示例
StringSubstitutor sub = new StringSubstitutor(ARGS,"${","!}");
System.out.println(sub.replace(TEMPLATE));
04.MessageFormat.format
a.示例
String template = "Hello, my home is {0} and I am {1} years old.";
Object[] replageArgs ={"Alice",25};
String message = MessageFormat.format(template, replageArgs);
05.String.format
a.示例
String template = "Hello, my name is %s and I am %d years old.";
Object[] replageArgs ={"Alice",25};
String message = String.format(template, replageArgs);
System.out.println(message); // 输出:Hello, my name is Alice and I am 25 years old.
1.3 测试:3种
00.汇总
手动注入controller进行测试,不支持http请求
基于TestRestTemplate进行测试,支持http请求
基于MockMvc进行测试,支持http请求+结果校验支持断言机制
01.手动注入controller进行测试
a.说明
Spring Boot提供了@SpringBootTest注解来进行集成测试
b.示例
@SpringBootTest
@Profile("dev")
class XiaoZouController {
@Autowired
private XiaoZouController xiaoZouController;
@Test
public void testController() {
TestDTO testDTO = new TestDTO();
String xiaoZouJiShu = xiaoZouController.testByXiaoZouJiShu(testDTO);
assertEquals("xiaoZouJiShu", xiaoZouJiShu);
}
}
b.缺点
无法模拟http请求
仅能测试controller的代码逻辑,实际测试也就是server的逻辑
像一些http中比如header、cookie等信息无法模拟,比如我们有一些切面进行了请求头的处理,比如我们从header中获取了uid等信息,这种情况下我们就无法进行测试
02.基于TestRestTemplate进行测试
a.内容
如果我们想要模拟http请求,我们可以使用TestRestTemplate来进行测试
b.示例
@SpringBootTest(webEnvironment = SpringBootTest.WebEnvironment.RANDOM_PORT)
@Profile("dev")
public class XiaoZouController {
@LocalServerPort
private int port;
@Autowired
private TestRestTemplate restTemplate;
@Test
void greetingShouldReturnDefaultMessage() throws Exception {
assertThat(this.restTemplate.getForObject("http://localhost:" + port + "/xiaozou", String.class)).contains("xiaozou");
}
}
c.说明
@SpringBootTest(webEnvironment = SpringBootTest.WebEnvironment.RANDOM_PORT)表示随机端口启动
@LocalServerPort表示获取随机端口
使用TestRestTemplate是来模拟http请求的调用
c.缺点
启动了一个本地服务器,启动慢
对于结果校验没有提供开箱即用的断言机制
03.基于MockMvc进行测试
a.内容
如果我们想要本地不启动服务器,只是测试服务器下面的层次,我们可以使用MockMvc来进行测试
这与处理真实的http请求处理方式一样,但是没有服务器启动成本
b.示例
@SpringBootTest
@AutoConfigureMockMvc
@Profile("dev")
public class XiaoZouControllerTest {
@Autowired
private MockMvc mockMvc;
@Test
void greetingShouldReturnDefaultMessage() throws Exception {
Long uid = 12345L;
mockMvc.perform(MockMvcRequestBuilders.get("/xiaozou")
.header("uid", uid)
.contentType(MediaType.APPLICATION_JSON))
.andExpect(status().isOk())
.andExpect(jsonPath("$.code").value(200))
.andExpect(jsonPath("$.data.uid").value(uid))
.andExpect(jsonPath("$.data.version").doesNotExist())
.andExpect(jsonPath("$.data.deviceId").value(IsNull.nullValue()));
}
}
c.说明
添加@AutoConfigureMockMvc注解自动注入MockMvc
通过@Autowired注入MockMvc对象
通过mockMvc进行http请求模拟
通过.header模拟header信息
通过.contentType模拟content-type信息
通过.andExpect进行结果校验
通过jsonPath进行json结果校验
1.4 定时:10种
00.汇总
a.linux自带的定时任务
crontab
b.jdk自带的定时任务
Thread
Timer
ScheduledExecutorService
c.spring支持的定时任务
springtask
springquartz
d.分布式定时任务
xxl-job
elastic-job
Saturn
TBSchedule
00.Linux自带的定时任务
a.crontab
a.概述
crontab是Linux系统自带的定时任务工具,适用于在特定时间执行任务。
b.使用场景
适合在凌晨用户量少时执行统计程序,避免对线上环境的影响。
c.使用方法
运行`crontab -e`编辑定时器,加入如下命令:
0 2 * * * /usr/local/java/jdk1.8/bin/java -jar /data/app/tool.jar > /logs/tool.log &
-------------------------------------------------------------------------------------------------
该命令将在每天凌晨2点执行tool.jar程序,并将日志输出到tool.log文件中。
d.命令格式
crontab [参数] [文件名]
-------------------------------------------------------------------------------------------------
如果没有指定文件名,则接收键盘输入的命令并载入到crontab。
e.参数功能
`-e`:编辑crontab文件
`-l`:列出当前用户的crontab任务
`-r`:删除当前用户的crontab任务
f.语法
[分] [小时] [日期] [月] [星期] 具体任务
-------------------------------------------------------------------------------------------------
分:0-59
小时:0-23
日期:1-31
月:1-12
星期:0-7(0和7都代表星期日)
g.特殊字符
`*`:表示任何时间
`/`:表示每隔多久执行一次
`,`:表示多个时间点
`-`:表示一个范围
h.crond服务
crontab需要crond服务支持,crond是Linux下用于周期性执行任务的守护进程。
`service crond status`:查看运行状态
`service crond start`:启动服务
`service crond stop`:关闭服务
`service crond restart`:重启服务
`service crond reload`:重新载入配置
i.优缺点
优点:方便修改定时规则,支持复杂的定时规则,通过文件统一管理。
缺点:定时任务多时不易管理,必须在Linux系统上运行。
01.JDK自带的定时任务
a.Thread
a.概述
Thread类可以用于实现简单的定时任务
b.实现方法
public static void init() {
new Thread(() -> {
while (true) {
try {
System.out.println("doSameThing");
Thread.sleep(1000 * 60 * 5);
} catch (Exception e) {
log.error(e);
}
}
}).start();
}
c.优缺点
优点:简单易用,适合简单的周期性任务
缺点:不支持指定时间点执行任务,功能单一
b.Timer
a.概述
Timer类是JDK提供的定时器工具,用于在后台线程计划执行指定任务
b.实现方法
使用Timer和TimerTask类实现定时任务
public class TimerTest {
public static void main(String[] args) {
Timer timer = new Timer();
timer.schedule(new TimerTask() {
@Override
public void run() {
System.out.println("doSomething");
}
}, 2000, 1000);
}
}
c.优缺点
优点:支持多个周期性任务,支持延迟执行
缺点:单线程执行任务,任务耗时长会影响其他任务,抛出RuntimeException会停止所有任务
c.ScheduledExecutorService
a.概述
ScheduledExecutorService是JDK1.5+版本引入的定时任务工具,位于java.util.concurrent包下。
b.实现方法
public class ScheduleExecutorTest {
public static void main(String[] args) {
ScheduledExecutorService scheduledExecutorService = Executors.newScheduledThreadPool(5);
scheduledExecutorService.scheduleAtFixedRate(() -> {
System.out.println("doSomething");
}, 1000, 1000, TimeUnit.MILLISECONDS);
}
}
c.优缺点
优点:基于多线程,任务之间不会相互影响,支持周期性任务和延迟功能
缺点:不支持复杂的定时规则
02.Spring支持的定时任务
a.Spring Task
a.概述
Spring Task是Spring3以上版本自带的定时任务工具,支持XML和注解两种方式。
b.实现方法
a.引入依赖
<dependency>
<groupId>org.springframework</groupId>
<artifactId>spring-context</artifactId>
</dependency>
b.启动类上加@EnableScheduling注解
@EnableScheduling
@SpringBootApplication
public class Application {
public static void main(String[] args) {
new SpringApplicationBuilder(Application.class).web(WebApplicationType.SERVLET).run(args);
}
}
c.使用@Scheduled注解定义定时规则
@Service
public class SpringTaskTest {
@Scheduled(cron = "${sue.spring.task.cron}")
public void fun() {
System.out.println("doSomething");
}
}
d.配置参数
sue.spring.task.cron=*/10 * * * * ?
c.优缺点
优点:Spring框架自带,支持复杂的cron表达式,易于使用
缺点:默认单线程,任务执行时间长会影响后续任务,不支持集群部署
b.Spring Quartz
a.概述
Quartz是一个开源的任务调度框架,支持复杂的定时任务。
b.实现方法
a.引入依赖
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-quartz</artifactId>
</dependency>
b.创建定时任务执行类
public class QuartzTestJob extends QuartzJobBean {
@Override
protected void executeInternal(JobExecutionContext context) throws JobExecutionException {
String userName = (String) context.getJobDetail().getJobDataMap().get("userName");
System.out.println("userName:" + userName);
}
}
c.创建调度程序JobDetail和调度器Trigger
@Configuration
public class QuartzConfig {
@Value("${sue.spring.quartz.cron}")
private String testCron;
@Bean
public JobDetail quartzTestDetail() {
JobDetail jobDetail = JobBuilder.newJob(QuartzTestJob.class)
.withIdentity("quartzTestDetail", "QUARTZ_TEST")
.usingJobData("userName", "susan")
.storeDurably()
.build();
return jobDetail;
}
@Bean
public Trigger quartzTestJobTrigger() {
CronScheduleBuilder cronScheduleBuilder = CronScheduleBuilder.cronSchedule(testCron);
Trigger trigger = TriggerBuilder.newTrigger()
.forJob(quartzTestDetail())
.withIdentity("quartzTestJobTrigger", "QUARTZ_TEST_JOB_TRIGGER")
.withSchedule(cronScheduleBuilder)
.build();
return trigger;
}
}
d.配置参数
sue.spring.quartz.cron=*/5 * * * * ?
c.优缺点
优点:多线程异步执行,支持复杂的cron表达式,支持分布式部署
缺点:实现成本高,需要手动配置QuartzJobBean、JobDetail和Trigger
03.分布式定时任务
a.xxl-job
a.概述
xxl-job是大众点评开发的分布式任务调度平台,支持弹性扩容缩容、动态分片、故障转移等功能。
b.实现方法
a.引入依赖
<dependency>
<groupId>com.xuxueli</groupId>
<artifactId>xxl-job-core</artifactId>
</dependency>
b.配置参数
xxl.job.admin.address: http://localhost:8088/xxl-job-admin/
xxl.job.executor.appname: xxl-job-executor-sample
xxl.job.executor.port: 8888
xxl.job.executor.logpath: /data/applogs/xxl-job/
c.创建定时任务执行类
@JobHandler(value = "helloJobHandler")
@Component
public class HelloJobHandler extends IJobHandler {
@Override
public ReturnT<String> execute(String param) {
System.out.println("XXL-JOB, Hello World.");
return SUCCESS;
}
}
c.优缺点
优点:界面管理定时任务,支持弹性扩容缩容、动态分片、故障转移、失败报警等功能。
缺点:通过数据库分布式锁控制任务,任务多时有性能问题。
b.elastic-job
a.概述
elastic-job是当当网开发的弹性分布式任务调度系统,采用zookeeper实现分布式协调。
b.实现方法
a.引入依赖
<dependency>
<groupId>com.dangdang</groupId>
<artifactId>elastic-job-lite-core</artifactId>
</dependency>
<dependency>
<groupId>com.dangdang</groupId>
<artifactId>elastic-job-lite-spring</artifactId>
</dependency>
b.配置zookeeper
@Configuration
@ConditionalOnExpression("'${zk.serverList}'.length() > 0")
public class ZKConfig {
@Bean
public ZookeeperRegistryCenter registry(@Value("${zk.serverList}") String serverList,
@Value("${zk.namespace}") String namespace) {
return new ZookeeperRegistryCenter(new ZookeeperConfiguration(serverList, namespace));
}
}
c.定义任务类
public class TestJob implements SimpleJob {
@Override
public void execute(ShardingContext shardingContext){
System.out.println("ShardingTotalCount:"+shardingContext.getShardingTotalCount());
System.out.println("ShardingItem:"+shardingContext.getShardingItem());
}
}
d.配置任务
@Configuration
public class JobConfig {
@Value("${sue.spring.elatisc.cron}")
private String testCron;
@Value("${sue.spring.elatisc.itemParameters}")
private String shardingItemParameters;
@Value("${sue.spring.elatisc.jobParameters}")
private String jobParameters;
@Value("${sue.spring.elatisc.shardingTotalCount}")
private int shardingTotalCount;
@Autowired
private ZookeeperRegistryCenter registryCenter;
@Bean
public SimpleJob testJob() {
return new TestJob();
}
@Bean
public JobScheduler simpleJobScheduler(final SimpleJob simpleJob) {
return new SpringJobScheduler(simpleJob, registryCenter, getConfiguration(simpleJob.getClass(),
cron, shardingTotalCount, shardingItemParameters, jobParameters));
}
private geConfiguration getConfiguration(Class<? extends SimpleJob> jobClass,String cron,int shardingTotalCount,String shardingItemParameters,String jobParameters) {
JobCoreConfiguration simpleCoreConfig = JobCoreConfiguration.newBuilder(jobClass.getName(), testCron, shardingTotalCount).
shardingItemParameters(shardingItemParameters).jobParameter(jobParameters).build();
SimpleJobConfiguration simpleJobConfig = new SimpleJobConfiguration(simpleCoreConfig, jobClass.getCanonicalName());
LiteJobConfiguration jobConfig = LiteJobConfiguration.newBuilder(simpleJobConfig).overwrite(true).build();
return jobConfig;
}
}
e.配置参数
spring.application.name=elasticjobDemo
zk.serverList=localhost:2181
zk.namespace=elasticjobDemo
sue.spring.elatisc.cron=0/5 * * * * ?
sue.spring.elatisc.itemParameters=0=A,1=B,2=C,3=D
sue.spring.elatisc.jobParameters=test
sue.spring.elatisc.shardingTotalCount=4
c.优缺点
优点:支持分布式调度协调,支持分片,适合高并发和复杂业务场景。
缺点:依赖zookeeper,实现复杂。
04.其他分布式定时任务
a.Saturn
a.概述
Saturn是唯品会开源的分布式任务调度平台,基于Elastic-Job改良而成。
b.特点
支持全域统一配置、统一监控、任务高可用及分片并发处理。
b.TBSchedule
a.概述
TBSchedule是阿里开发的分布式任务调度平台,旨在将调度作业从业务系统中分离出来。
b.特点
广泛应用于阿里巴巴、淘宝、支付宝等互联网企业的流程调度系统中。
1.5 接口:重试
00.汇总
1.暴力轮回法
2.SpringRetry
3.Resilience4j
4.MQ队列
5.定时任务
6.两阶段提交
7.分布式锁
01.暴力轮回法
a.问题场景
某实习生写的用户注册短信发送接口
在一个while循环中,重复调用第三方的发短信接口给用户发送短信
b.代码如下
public void sendSms(String phone) {
int retry = 0;
while (retry < 5) { // 无脑循环
try {
smsClient.send(phone);
break;
} catch (Exception e) {
retry++;
Thread.sleep(1000); // 固定1秒睡眠
}
}
}
c.事故现场
某次短信服务器出现了过载问题,导致所有请求都延迟了3秒
这个暴力循环的代码在 0.5秒内同时发起数万次重试,直接打爆短信平台,触发了 熔断封禁,连正常请求也被拒绝
d.教训
不做延迟间隔调整:固定间隔导致重试请求集中爆发
无视异常类型:非临时性错误(如参数错误)也尝试重试
修复方案:加上随机的重试间隔,并过滤不可重试的异常
02.Spring Retry
a.应用场景
Spring Retry适用于中小项目,通过注解快速实现基本重试和熔断(如订单状态查询接口)
通过声明@Retryable注解,来实现接口重试的功能
b.配置示例
@Retryable(
value = {TimeoutException.class}, // 只重试超时异常
maxAttempts = 3,
backoff = @Backoff(delay = 1000, multiplier = 2) // 1秒→2秒→4秒
)
public boolean queryOrderStatus(String orderId) {
return httpClient.get("/order/" + orderId);
}
@Recover // 兜底回退方法
public boolean fallback() {
return false;
}
c.优势
声明式注解:代码简洁,与业务逻辑解耦
指数退避:自动拉长重试间隔
熔断集成:结合 @CircuitBreaker 可快速阻断异常流量
03.Resilience4j
a.高阶场景
对于有些需要自定义退避算法、熔断策略和多层防护的大中型系统(如支付核心接口),我们可以使用 Resilience4j
b.核心代码
// 1. 重试配置:指数退避 + 随机抖动
RetryConfig retryConfig = RetryConfig.custom()
.maxAttempts(3)
.intervalFunction(IntervalFunction.ofExponentialRandomBackoff(
1000L, // 初始间隔1秒
2.0, // 指数倍数
0.3 // 随机抖动系数
))
.retryOnException(e -> e instanceof TimeoutException)
.build();
// 2. 熔断配置:错误率超50%时熔断
CircuitBreakerConfig cbConfig = CircuitBreakerConfig.custom()
.slidingWindow(10, 10, CircuitBreakerConfig.SlidingWindowType.COUNT_BASED)
.failureRateThreshold(50)
.build();
// 组合使用
Retry retry = Retry.of("payment", retryConfig);
CircuitBreaker cb = CircuitBreaker.of("payment", cbConfig);
// 执行业务逻辑
Supplier<Boolean> supplier = () -> paymentService.pay();
Supplier<Boolean> decorated = Decorators.ofSupplier(supplier)
.withRetry(retry)
.withCircuitBreaker(cb)
.decorate();
c.效果
某电商大厂上线此方案后,支付接口 超时率下降60% ,且熔断触发频率降低近 90%
真正做到了“打不还手,骂不还口”
04.MQ队列
a.适用场景
高并发、允许延时的异步场景(如物流状态同步)
b.实现原理
首次请求失败后,将消息投递至延时队列
队列根据预设的延时时间(如5秒、30秒、1分钟)重试消费
若达到最大重试次数,则转存至 死信队列(人工处理)
c.RocketMQ代码片段
// 生产者发送延时消息
Message<String> message = new Message();
message.setBody("订单数据");
message.setDelayTimeLevel(3); // RocketMQ预设的10秒延迟级别
rocketMQTemplate.send(message);
// 消费者重试
@RocketMQMessageListener(topic = "DELAY_TOPIC")
public class DelayConsumer {
@Override
public void handleMessage(Message message) {
try {
syncLogistics(message);
} catch (Exception e) {
// 重试次数 + 1,并重新发送到更高延迟级别
resendWithDelay(message, retryCount + 1);
}
}
}
05.定时任务
a.适用场景
对于有些不需要实时反馈,允许批量处理的任务(如文件导入)的业务场景,我们可以使用定时任务
b.具体代码
@Scheduled(cron = "0 0/5 * * * ?") // 每5分钟执行
public void retryFailedTasks() {
List<FailedTask> list = failedTaskDao.listUnprocessed(5); // 查失败任务
list.forEach(task -> {
try {
retryTask(task);
task.markSuccess();
} catch (Exception e) {
task.incrRetryCount();
}
failedTaskDao.update(task);
});
}
06.两阶段提交
a.适用场景
对于严格保证数据一致性的场景(如资金转账),我们可以使用两阶段提交机制
b.关键实现
第一阶段:记录操作流水到数据库(状态为“进行中”)
第二阶段:调用远程接口,并根据结果更新流水状态
定时补偿:扫描超时的“进行中”流水重新提交
c.大致代码
@Transactional
public void transfer(TransferRequest req) {
// 1. 记录流水
transferRecordDao.create(req, PENDING);
// 2. 调用银行接口
boolean success = bankClient.transfer(req);
// 3. 更新流水状态
transferRecordDao.updateStatus(req.getId(), success ? SUCCESS : FAILED);
// 4. 失败转异步重试
if (!success) {
mqTemplate.send("TRANSFER_RETRY_QUEUE", req);
}
}
07.分布式锁
a.应用场景
对于一些多服务实例、多线程环境的防重复提交(如秒杀)的业务场景,我们可以使用分布式锁
这里以Redis + Lua的分布式锁为例
b.代码
public boolean retryWithLock(String key, int maxRetry) {
String lockKey = "api_retry_lock:" + key;
for (int i = 0; i < maxRetry; i++) {
// 尝试获取分布式锁
if (redis.setnx(lockKey, "1", 30, TimeUnit.SECONDS)) {
try {
return callApi();
} finally {
redis.delete(lockKey);
}
}
Thread.sleep(1000 * (i + 1)); // 等待释放锁
}
return false;
}
1.6 接口:响应慢
01.问题定位
a.定位问题的范围
确认是单个接口还是整体系统响应慢
是持续性问题还是突发性问题
是否与特定时间段(如流量高峰期)相关
是否与特定业务场景或请求参数相关
b.监控告警
查看APM系统(如SkyWalking、Prometheus)的接口响应时间、错误率、QPS等指标,确认是否全局性异常或单实例问题
c.链路追踪
使用分布式链路系统(如SkyWalking)追踪请求全链路,识别耗时环节(如数据库查询、RPC调用)
示例:发现某互动玩法接口因Redis集群节点故障导致缓存读取延迟
d.日志分析
检查错误日志(ELK Stack),重点关注慢查询日志、线程阻塞、异常堆栈
如:通过grep "Timeout" application.log过滤超时请求
02.网络、中间件、外部依赖排查
a.网络层排查
延迟检测:ping/traceroute确认机房内网延迟,排查跨可用区调用,有监控可看监控
丢包率:tcpdump抓包分析重传率,优化Nginx的keepalive_timeout。查看网络监控看板获取丢包率
b.中间件排查
Redis:redis-cli --latency检测集群响应时间,排查大Key/热Key,检查Redis集群的缓存命中率,连接数监控
RocketMQ:检查堆积消息(mqadmin consumerProgress),优化消费者并发度。
MySQL:SHOW PROCESSLIST定位慢查询,用explain分析SQL执行计划,查看数据库的性能监控,CPU使用率
外部依赖:检查调用外部RPC接口的响应时间
03.服务端性能排查
a.服务器资源瓶颈分析
CPU:使用top -H定位高负载线程,结合jstack分析线程栈(如死循环、锁竞争)
内存:通过jstat -gcutil观察GC频率,jmap排查内存泄漏(如未释放的Redis连接池)
磁盘IO:iostat检查磁盘负载,优化日志写入策略(如异步刷盘)
b.JVM调优
GC策略:高并发场景优先选用G1,调整MaxGCPauseMillis控制停顿时间
堆外内存:检查Netty等框架的DirectBuffer泄漏(Native Memory Tracking
c.代码逻辑排查
检查是否存在不合理代码逻辑:循环查询数据库、同步调用多个外部接口等
04.优化方案
a.代码层面优化
锁竞争优化、异步处理、批量处理
b.数据库优化
索引优化、SQL改写、分库分表
c.缓存策略优化
多级缓存、大促前预加载热点数据
d.资源扩容
增加服务器节点、提升配置
e.JVM参数调优
内存分配、GC策略调整
f.中间件参数调优
连接池大小、超时时间
1.7 接口:18条优化
00.汇总
1.签名
2.加密
3.ip白名单
4.限流
5.参数校验
6.统一返回值
7.统一封装异常
8.请求日志
9.幂等设计
10.限制记录条数
11.压测
12.异步处理
13.数据脱敏
14.完整的接口文档
15.请求方式
16.请求头
17.批量
18.职责单一
01.签名
a.目的
为了防止 API 接口中的数据被篡改,很多时候我们需要对 API 接口做签名。
b.签名流程
接口请求方将请求参数 + 时间戳 + 密钥拼接成一个字符串,然后通过 md5 等 hash 算法,生成一个签名(sign)。
在请求参数或者请求头中,增加 sign 参数,传递给 API 接口。
API 接口的网关服务,获取到该 sign 值,然后用相同的请求参数 + 时间戳 + 密钥拼接成一个字符串,用相同的 md5 算法生成另外一个 sign,对比两个 sign 值是否相等。
如果两个 sign 相等,则认为是有效请求,API 接口的网关服务会将请求转发给相应的业务系统。
如果两个 sign 不相等,则 API 接口的网关服务会直接返回签名错误。
c.签名中为什么要加时间戳?
为了安全性考虑,防止同一次请求被反复利用,增加了密钥没破解的可能性,我们必须要对每次请求都设置一个合理的过期时间,比如:15分钟。这样一次请求,在15分钟之内是有效的,超过15分钟,API接口的网关服务会返回超过有效期的异常提示。
d.生成签名中的密钥形式
一种是双方约定一个固定值 privateKey。
另一种是 API 接口提供方给出 AK/SK 两个值,双方约定用 SK 作为签名中的密钥。AK 接口调用方作为 header 中的 accessKey 传递给 API 接口提供方,这样 API 接口提供方可以根据 AK 获取到 SK,而生成新的 sign。
02.加密
a.目的
有些时候,我们的 API 接口直接传递的非常重要的数据,比如:用户的登录密码、银行卡号、转账金额、用户身份证等,如果将这些参数,直接明文,暴露到公网上是非常危险的事情。
b.加密流程
用户注册接口,用户输入了用户名和密码之后,需要将密码加密。
可以使用 AES 对称加密算法。
在前端使用公钥对用户密码加密。
然后注册接口中,可以使用密钥解密,做一些业务需求校验。然后再换成其他的加密方式加密,保存到数据库当中。
03.IP白名单
a.目的
为了进一步加强 API 接口的安全性,防止接口的签名或者加密被破解了,攻击者可以在自己的服务器上请求该接口。
b.实现
需求限制请求 IP,增加 IP 白名单。
只有在白名单中的 IP 地址,才能成功请求 API 接口,否则直接返回无访问权限。
IP 白名单也可以加在 API 网关服务上。
但也要防止公司的内部应用服务器被攻破,这种情况也可以从内部服务器上发起 API 接口的请求。
这时候就需要增加 web 防火墙了,比如:ModSecurity 等。
04.限流
a.目的
如果你的 API 接口被第三方平台调用了,这就意味着着,调用频率是没法控制的。第三方平台调用你的 API 接口时,如果并发量一下子太高,可能会导致你的 API 服务不可用,接口直接挂掉。
b.限流方法
对请求 IP 做限流:比如同一个 IP,在一分钟内,对 API 接口总的请求次数,不能超过 10000 次。
对请求接口做限流:比如同一个 IP,在一分钟内,对指定的 API 接口,请求次数不能超过 2000 次。
对请求用户做限流:比如同一个 AK/SK 用户,在一分钟内,对 API 接口总的请求次数,不能超过 10000 次。
可以通过 nginx,redis 或者 gateway 实现限流的功能。
05.参数校验
a.目的
我们需要对 API 接口做参数校验,比如:校验必填字段是否为空,校验字段类型,校验字段长度,校验枚举值等等。这样做可以拦截一些无效的请求。
b.实现
在新增数据时,字段长度超过了数据字段的最大长度,数据库会直接报错。但这种异常的请求,我们完全可以在 API 接口的前期进行识别,没有必要走到数据库保存数据那一步,浪费系统资源。
有些金额字段,本来是正数,但如果用户传入了负数,万一接口没做校验,可能会导致一些没必要的损失。
还有些状态字段,如果不做校验,用户如果传入了系统中不存在的枚举值,就会导致保存的数据异常。
在 Java 中校验数据使用最多的是 hibernate 的 Validator 框架,它里面包含了 @Null、@NotEmpty、@Size、@Max、@Min 等注解。用它们校验数据非常方便。
当然有些日期字段和枚举字段,可能需要通过自定义注解的方式实现参数校验。
06.统一返回值
a.问题
返回值中有多种不同格式的返回数据,这样会导致对接方很难理解。出现这种情况,可能是 API 网关定义了一种返回值结构,业务系统定义了另外一种返回值结构。如果是网关异常,则返回网关定义的返回值结构,如果是业务系统异常,则返回业务系统的返回值结构。但这样会导致 API 接口出现不同的异常时,返回不同的返回值结构,非常不利于接口的维护。
b.解决方案
业务系统在出现异常时,抛出业务异常的 RuntimeException,其中有个 message 字段定义异常信息。所有的 API 接口都必须经过 API 网关,API 网关捕获该业务异常,然后转换成统一的异常结构返回,这样能统一返回值结构。
07.统一封装异常
a.问题
有时候在 API 接口中,需要访问数据库,但表不存在,或者 sql 语句异常,就会直接把 sql 信息在 API 接口中直接返回。返回值中包含了异常堆栈信息、数据库信息、错误代码和行数等信息。如果直接把这些内容暴露给第三方平台,是很危险的事情。有些不法分子,利用接口返回值中的这些信息,有可能会进行 sql 注入或者直接脱库,而对我们系统造成一定的损失。
b.解决方案
对 API 接口中的异常做统一处理,把异常转换成:
---
{
"code":500,
"message":"服务器内部错误",
"data":null
}
---
返回码 code 是 500,返回信息 message 是服务器内部异常。这样第三方平台就知道是 API 接口出现了内部问题,但不知道具体原因,他们可以找我们排查问题。我们可以在内部的日志文件中,把堆栈信息、数据库信息、错误代码行数等信息,打印出来。我们可以在 gateway 中对异常进行拦截,做统一封装,然后给第三方平台的是处理后没有敏感信息的错误信息。
08.请求日志
a.目的
在第三方平台请求你的 API 接口时,接口的请求日志非常重要,通过它可以快速的分析和定位问题。
b.实现
记录 API 接口的请求 url、请求参数、请求头、请求方式、响应数据和响应时间等。
最好有 traceId,可以通过它串联整个请求的日志,过滤多余的日志。
有些时候,请求日志不光是你们公司开发人员需要查看,第三方平台的用户也需要能查看接口的请求日志。
可以把日志落地到数据库,比如:mongodb 或者 elastic search,然后做一个 UI 页面,给第三方平台的用户开通查看权限。这样他们就能在外网查看请求日志了,他们自己也能定位一部分问题。
09.幂等设计
a.目的
第三方平台极有可能在极短的时间内,请求我们接口多次,比如:在 1 秒内请求两次。有可能是他们业务系统有 bug,或者在做接口调用失败重试,因此我们的 API 接口需要做幂等设计。
b.实现
支持在极短的时间内,第三方平台用相同的参数请求 API 接口多次,第一次请求数据库会新增数据,但第二次请求以后就不会新增数据,但也会返回成功。
可以通过在数据库中增加唯一索引,或者在 redis 保存 requestId 和请求参数来保证接口幂等性。
10.限制记录条数
a.目的
对于对我提供的批量接口,一定要限制请求的记录条数。如果请求的数据太多,很容易造成 API 接口超时等问题,让 API 接口变得不稳定。
b.实现
通常情况下,建议一次请求中的参数,最多支持传入 500 条记录。
如果用户传入多余 500 条记录,则接口直接给出提示。
建议这个参数做成可配置的,并且要事先跟第三方平台协商好,避免上线后产生不必要的问题。
对于一次性查询的数据太多的情况,我们需要将接口设计成分页查询返回的。
11.压测
a.目的
上线前我们务必要对 API 接口做一下压力测试,知道各个接口的 qps 情况。以便于我们能够更好的预估,需要部署多少服务器节点,对于 API 接口的稳定性至关重要。
b.实现
虽然对 API 接口做了限流,但是实际上 API 接口是否能够达到限制的阀值,这是一个问号,如果不做压力测试,是有很大风险的。
比如:你 API 接口限流 1 秒只允许 50 次请求,但实际 API 接口只能处理 30 次请求,这样你的 API 接口也会处理不过来。
可以用 jmeter 或者 apache bench 对 API 接口做压力测试。
12.异步处理
a.问题
一般的 API 接口的逻辑都是同步处理的,请求完之后立刻返回结果。但有时候,我们的 API 接口里面的业务逻辑非常复杂,特别是有些批量接口,如果同步处理业务,耗时会非常长。
b.解决方案
为了提升 API 接口的性能,可以改成异步处理。
在 API 接口中可以发送一条 mq 消息,然后直接返回成功。之后,有个专门的 mq 消费者去异步消费该消息,做业务逻辑处理。
直接异步处理的接口,第三方平台有两种方式获取到。
第一种方式是:我们回调第三方平台的接口,告知他们 API 接口的处理结果,很多支付接口就是这么玩的。
第二种方式是:第三方平台通过轮询调用我们另外一个查询状态的 API 接口,每隔一段时间查询一次状态,传入的参数是之前的那个 API 接口中的 id 集合。
13.数据脱敏
a.问题
有时候第三方平台调用我们 API 接口时,获取的数据中有一部分是敏感数据,比如:用户手机号、银行卡号等等。这样信息如果通过 API 接口直接保留到外网,是非常不安全的,很容易造成用户隐私数据泄露的问题。
b.解决方案
对部分数据做数据脱敏。
在返回的数据中,部分内容用星号代替。
以用户手机号为例:182****887。
这样即使数据被泄露了,也只泄露了一部分,不法分子拿到这份数据也没啥用。
14.完整的接口文档
a.目的
一份完整的 API 接口文档,在双方做接口对接时,可以减少很多沟通成本,让对方少走很多弯路。
b.接口文档内容
接口地址
请求方式,比如:post 或 get
请求参数和字段介绍
返回值和字段介绍
返回码和错误信息
加密或签名示例
完整的请求 demo
额外的说明,比如:开通 ip 白名单。
接口文档中最好能够统一接口和字段名称的命名风格,比如都用驼峰标识命名。
统一字段的类型和长度,比如:id 字段用 Long 类型,长度规定 20。status 字段用 int 类型,长度固定 2 等。
统一时间格式字段,比如:time 用 String 类型,格式为:yyyy-MM-dd HH:mm:ss。
接口文档中写明 AK/SK 和域名,找某某单独提供等。
15.请求方式
a.实现
接口支持的请求方式有很多,比如:GET、POST、PUT、DELETE 等等。
在设计接口的时候,要根据实际情况选择使用哪种请求方式。
实际工作中使用最多的是:GET 和 POST,这两种请求方式。
如果没有输入参数的接口,可以使用 GET 请求方式,问题不大。
如果有输入参数的接口,推荐使用 POST 请求方式,坑更少。
b.原因
POST 请求方式更容易扩展参数,特别是在 Feign 调用接口的场景下,比如:增加一个参数,调用方可以不用修改代码。而 GET 请求方式,需要修改代码,否则编译会出错。
GET 请求方式的参数,有长度限制,最长是 5000 个字符,而 POST 请求方式对参数的长度没有做限制,可以传入更长的参数值。
16.请求头
a.实现
对于一些公共的功能,比如:接口的权限验证,或者接口的 traceId 参数。
在设计接口的时候,不用把所有的参数,都放入接口的请求参数中。
有些参数可以放到 Header 请求头中。
比如:需求记录每个请求的 traceId,不用在所有接口中都加 traceId 字段。
而改成让用户在 header 中传入 traceId,在服务端使用统一的拦截器解析 header,即可获取该 traceId 了。
17.批量
a.实现
在设计接口的时候,无论是查询数据、添加数据、修改数据,还是删除的场景,都应该考虑一下能否设计成批量的。
很多时候,需要通过 id 查询数据详情,比如:通过订单 id,查询订单详情。
如果接口只支持,通过一个 id,查询一个订单的详情。
那么,后面需要通过多个 id,查询多个订单详情的时候,就需要额外增加接口了。
如果添加数据的接口,只支持一条数据一条数据的添加。
后面,有个 job 需要一次性添加 1000 条数据的时候,这时在代码中循环 1000 次,一个个添加,这种做法效率比较低。
为了让接口设计的更加通用,满足更多的业务场景,能设计成批量的,尽量别设计成单个的。
18.职责单一
a.问题
有些小伙伴设计的接口,在入参中各种条件都支持,在 Service 层有 N 多的 if...else 判断。而且返回的实体类中,包含了各种场景下的返回值字段,字段很多很全。接口上线一年之后,自己可能都忘了,在哪些业务场景下,要传入哪些字段,返回值是哪些字段。这类接口的维护成本非常高,而且又不敢轻易重构,怕改了 A 业务场景,影响 B 业务场景的功能,这种接口让人非常痛苦的。
b.解决方案
好的接口设计原则是:职责单一。
比如用户下单的场景,有 web 端和移动端。
而每个端都有普通下单和快速下单,两种不同的业务场景。
在设计接口的时候,可以将 web 端和移动端的接口在 controller 层完全分开。
---
/web/v1/order
/mobile/v1/order
---
- 并且将普通下单和快速下单也分开:
---
/web/v1/order/create
/web/v1/order/fastCreate
/mobile/v1/order/create
/mobile/v1/order/fastCreate
---
- 这样可以设计成 4 个接口。
- 业务逻辑更清晰一些,方便后面维护。
1.8 接口:18条超时
01.网络异常
a.网络抖动
经常上网的我们,肯定遇到过这样的场景:大多数情况下我们访问某个网站很快,但偶尔会出现网页一直转圈,加载不出来的情况。
有可能是你的网络出现了抖动,丢包了。
网页请求API接口,或者接口返回数据给网页,都有可能会出现网络丢包的情况。
网络丢包可能会导致接口超时。
b.带宽被占满
有时候,由于页面或者接口设计不合理,用户请求量突增的时候,可能会导致服务器的网络带宽被占满的情况。
服务器带宽指的是在一定时间内传输数据的大小,比如:1秒传输了10M的数据。
如果用户请求量突然增多,超出了1秒10M的上限,比如:1秒100M,而服务器带宽本身1秒就只能传输10M,这样会导致在这1秒内,90M数据就会延迟传输的情况,从而导致接口超时的发生。
所以对于有些高并发请求场景,需要评估一下是否需要增加服务器带宽。
02.线程池满了
a.问题描述
我们调用的API接口,有时候为了性能考虑,可能会使用线程池异步查询数据,最后把查询结果进行汇总,然后返回。
b.示例代码
public UserInfo getUserInfo(Long id) throws InterruptedException, ExecutionException {
final UserInfo userInfo = new UserInfo();
CompletableFuture userFuture = CompletableFuture.supplyAsync(() -> {
getRemoteUserAndFill(id, userInfo);
return Boolean.TRUE;
}, executor);
CompletableFuture bonusFuture = CompletableFuture.supplyAsync(() -> {
getRemoteBonusAndFill(id, userInfo);
return Boolean.TRUE;
}, executor);
CompletableFuture growthFuture = CompletableFuture.supplyAsync(() -> {
getRemoteGrowthAndFill(id, userInfo);
return Boolean.TRUE;
}, executor);
CompletableFuture.allOf(userFuture, bonusFuture, growthFuture).join();
userFuture.get();
bonusFuture.get();
growthFuture.get();
return userInfo;
}
-----------------------------------------------------------------------------------------------------
这里用到了executor,表示自定义的线程池,为了防止高并发场景下,出现线程过多的问题。
c.解决方案
如果用户请求太多,线程池中已有的线程处理不过来,线程池会把多余的请求,放到队列中排队,等待空闲线程的去处理。
如果队列中排队的任务非常多,某次API请求一直在等待,没办法得到及时处理,就会出现接口超时问题。
核心线程数设置太小,可以将其调大一些。
多种业务场景共用了同一个线程池,可以拆分成多个线程池。
03.数据库死锁
a.问题描述
有时候接口超时得有点莫名其妙,特别是遇到数据库出现死锁的时候。
b.示例场景
你提供的API接口中通过某个id更新某条数据,此时,正好线上在手动执行一个批量更新数据的sql语句。
该sql语句在一个事务当中,并且刚好也在更新那条数据,可能会出现死锁的情况。
由于该sql语句执行时间很长,会导致API接口的那次更新数据操作,长时间被数据库锁住,没法即使返回数据,而出现接口超时问题。
c.解决方案
在执行数据库批量操作前,一定要评估数据的影响范围,不要一次性更新太多的数据,不然可能会导致很多意想不到的问题。
批量更新操作建议在用户访问少的时段执行,比如:凌晨。
04.传入参数太多
a.问题描述
偶尔的一次接口超时,是由于参数传入太多导致的。
b.示例场景
根据id集合批量查询分类接口,如果传入的id集合数据量不多,传入几十个或上百个id,不会出现性能问题。
但如果接口调用方,一次性传入几千个,甚至几万个id,批量查询分类,也可能会出现接口超时问题。
c.解决方案
在设计批量接口的时候,建议要限制传入的集合的大小,比如:500。
如果超过设置最大的集合大小,则接口直接返回失败,并提示给用户:一次性传入参数过多。
该限制一定要写到接口文档中,避免接口调用方,在生产环境调用接口失败而踩坑。
如果接口调用方要传入的参数就是很多,可以在接口调用方中多线程分批调用该接口,最后将结果进行汇总。
05.超时时间设置过短
a.问题描述
建议在调用远程API接口时,要设置连接超时时间和读超时时间这两个参数,并且可以动态配置。
b.示例场景
你调用的远程API接口,要100秒才返回数据,而你设置的超时时间是100秒。这时1000个请求过来,去请求该API接口,这样会导致tomcat线程池很快被占满,导致整个服务暂时不可用。
c.解决方案
并发量不大的业务场景,可以将这两个超时时间设置稍微长一点,比如:连接超时时间为10秒,读超时时间为20秒。
并发量大的业务场景,可以设置成秒级或者毫秒级。
不建议多种业务场景共用同一个超时时间,最好根据并发量的不同,单独设置不同的超时时间。
06.一次性返回数据太多
a.问题描述
有个job,每天定时调用第三方API查询接口,获取昨天更新的数据,然后更新到我们自己的数据库表中。
b.示例场景
第三方每天更新的数据不多,所以该API接口响应时间还是比较快的。
但突然有一天,该API接口却出现了接口超时问题。
查看日志发现,该API接口一次性返回的数据太多,而且该数据的更新时间相同。
c.解决方案
第三方这种根据日期查询增量数据的接口,建议做成分页查询的。
07.死循环
a.问题描述
死循环也会导致接口超时。
b.普通死循环
有时候死循环是我们自己写的,例如下面这段代码:
while(true) {
if(condition) {
break;
}
System.out.println("do samething");
}
-----------------------------------------------------------------------------------------------------
如果condition条件非常复杂,一旦出现判断不正确,或者少写了一些逻辑判断,就可能在某些场景下出现死循环的问题。
c.无限递归
如果想要打印某个分类的所有父分类,可以用类似这样的递归方法实现:
public void printCategory(Category category) {
if(category == null
|| category.getParentId() == null) {
return;
}
System.out.println("父分类名称:"+ category.getName());
Category parent = categoryMapper.getCategoryById(category.getParentId());
printCategory(parent);
}
-----------------------------------------------------------------------------------------------------
正常情况下,这段代码是没有问题的。
但如果某次有人误操作,把某个分类的parentId指向了它自己,这样就会出现无限递归的情况。
d.解决方案
写递归方法时,设定一个递归的深度,比如:分类最大等级有4级,则深度可以设置为4。
然后在递归方法中做判断,如果深度大于4时,则自动返回,这样就能避免无限递归的情况。
08.sql语句没走索引
a.问题描述
明明是同一条sql,只有入参不同而已。有的时候走的索引a,有的时候却走的索引b。
b.解决方案
必要时可以使用force index来强制查询sql走某个索引。
09.服务OOM
a.问题描述
一个根据id查询分类的接口,该id是主键,sql语句可以走主键索引,竟然也出现了接口超时问题。
b.示例场景
该API接口部署的服务当时由于OOM内存溢出,其实挂了一段时间。
当时所有的接口都出现了请求超时问题。
但由于K8S集群有监控,它自动会将挂掉的服务节点kill掉,并且在容器中重新部署了一个新的服务节点。
10.在debug
a.问题描述
在本地开发工具,比如:idea中,直接连接测试环境的数据库,调试某个API接口的业务逻辑。
b.示例场景
你在请求某个本地接口时,开启了debug模式,一行行的跟踪代码,排查问题。
走到某一行代码的时候,停留了很长一段时间,该行代码主要是更新某条数据。
此时,测试同学在相关的业务页面中,操作更新了相同的数据。
这种也可能会出现数据库死锁的问题。
1.9 if判空:optional类
01.常见信息
a.优化前
public void getorderDetaiLAddress_常规版本 (String orderId) {
Order order= getOrderDetail(orderId);
int length =0;
if(order !=null){
User user = order.getuser();
if (user != null){
Address address = user.getAddress();
if (address != null) {
String detailAddress = address.getDetailAddress();
if (!"".equals(detailAddress)) {
length = detailAddress.length();
}
}
}
}
}
b.优化后
public void getorderDetaiLAddress_进化版本 (String orderId) {
Order order= getOrderDetail(orderId);
Integer length = Optional.ofNullable(order)
.map(Order::getUser)
.map(User::getAddress)
.map(Address::getDetailAddress)
.map(String::length)
.orELse(0);
}
02.常见信息
a.写法1(推荐)
public OrderDTO convert_写法1 (Order order) {
if (order == null) {
return null;
}
OrderDTO orderDTO = new OrderDTO();
// 其他操作
return orderDTO;
}
b.写法2
public OrderDTO convert_写法2 (Order order) {
if (order != null) {
OrderDTO orderDTO = new OrderDTO();
// 其他操作
return orderDTO;
}
return null;
}
03.常见信息
a.写法1
List<SysUser> requireUpdateUserList = commonSysUserList.stream()
.map(sysUser -> {
// 找到与当前 sysUser 匹配的 User 对象
User matchingUser = commonYzjUserList.stream()
.filter(user -> user.getJobNo().equals(sysUser.getUsername()))
.findFirst()
.orElse(null);
if (matchingUser != null && matchingUser.getJobNo().equals(sysUser.getUsername()) &&
(!Objects.equals(matchingUser.getName(), sysUser.getRealname()) ||
!Objects.equals(matchingUser.getPhone(), sysUser.getPhone()) ||
!Objects.equals(matchingUser.getPhotoUrl(), sysUser.getAvatar()) ||
!Objects.equals(matchingUser.getOrgId(), sysUser.getOrgCode()) ||
!Objects.equals(matchingUser.getOpenId(), sysUser.getThirdId()) ||
!Objects.equals(matchingUser.getJobTitle(), sysUser.getPost()) ||
!Objects.equals(matchingUser.getGender(), sysUser.getSex()) ||
!Objects.equals(matchingUser.getJobNo(), sysUser.getWorkNo()) ||
!Objects.equals(matchingUser.getBirthday(), sysUser.getBirthday()) ||
!Objects.equals(matchingUser.getFileNo(), sysUser.getFileNo()) ||
!Objects.equals(matchingUser.getEmail(), sysUser.getEmail())
)) {
// 如果有差异,创建一个新的 SysUser,更新 age/sex/birthday,并保存旧数据
SysUser sysNewUser = new SysUser();
BeanUtils.copyProperties(sysUser, sysNewUser);
sysNewUser.setRealname(matchingUser.getName());
sysNewUser.setPhone(matchingUser.getPhone());
sysNewUser.setAvatar(matchingUser.getPhotoUrl());
sysNewUser.setOrgCode(matchingUser.getOrgId());
sysNewUser.setThirdId(matchingUser.getOpenId());
sysNewUser.setPost(matchingUser.getJobTitle());
sysNewUser.setSex(matchingUser.getGender());
sysNewUser.setWorkNo(matchingUser.getJobNo());
sysNewUser.setBirthday(matchingUser.getBirthday());
sysNewUser.setFileNo(matchingUser.getFileNo());
sysNewUser.setEmail(matchingUser.getEmail());
sysNewUser.setUpdateBy("admin");
sysNewUser.setUpdateTime(new Date());
return sysNewUser;
}
return null; // 如果没有差异,返回 null
})
.filter(Objects::nonNull) // 过滤掉为 null 的对象
.collect(Collectors.toList());
b.写法2
List<SysUser> requireUpdateUserList = commonSysUserList.stream()
.map(sysUser ->
commonYzjUserList.stream()
.filter(user -> user.getJobNo().equals(sysUser.getUsername()))
.findFirst()
.flatMap(matchingUser -> {
if (!Objects.equals(matchingUser.getName(), sysUser.getRealname()) ||
!Objects.equals(matchingUser.getPhone(), sysUser.getPhone()) ||
!Objects.equals(matchingUser.getPhotoUrl(), sysUser.getAvatar()) ||
!Objects.equals(matchingUser.getOrgId(), sysUser.getOrgCode()) ||
!Objects.equals(matchingUser.getOpenId(), sysUser.getThirdId()) ||
!Objects.equals(matchingUser.getJobTitle(), sysUser.getPost()) ||
!Objects.equals(matchingUser.getGender(), sysUser.getSex()) ||
!Objects.equals(matchingUser.getJobNo(), sysUser.getWorkNo()) ||
!Objects.equals(matchingUser.getBirthday(), sysUser.getBirthday()) ||
!Objects.equals(matchingUser.getFileNo(), sysUser.getFileNo()) ||
!Objects.equals(matchingUser.getEmail(), sysUser.getEmail())) {
SysUser sysNewUser = new SysUser();
BeanUtils.copyProperties(sysUser, sysNewUser);
sysNewUser.setRealname(matchingUser.getName());
sysNewUser.setPhone(matchingUser.getPhone());
sysNewUser.setAvatar(matchingUser.getPhotoUrl());
sysNewUser.setOrgCode(matchingUser.getOrgId());
sysNewUser.setThirdId(matchingUser.getOpenId());
sysNewUser.setPost(matchingUser.getJobTitle());
sysNewUser.setSex(matchingUser.getGender());
sysNewUser.setWorkNo(matchingUser.getJobNo());
sysNewUser.setBirthday(matchingUser.getBirthday());
sysNewUser.setFileNo(matchingUser.getFileNo());
sysNewUser.setEmail(matchingUser.getEmail());
sysNewUser.setUpdateBy("admin");
sysNewUser.setUpdateTime(new Date());
return Optional.of(sysNewUser);
}
return Optional.empty();
})
)
.filter(Optional::isPresent) // 保留非空 Optional
.map(Optional::get) // 提取值
.collect(Collectors.toList());
1.10 if语句:switch语句
01.写法1
public String getBizTypeName_初始版本 (String bizType) {
if(bizType == null Il bizType.equals("")) {
return null;
}
if("1".equals(bizType)) {
return "业务类型1";
} else if ("2".equals(bizType)) {
return "业务类型2";
}
return null;
}
02.写法2
public String getBizTypeName_进化版本 (String bizType) {
if(StringUtils.isBlank(bizType)) {
return null;
}
String bizTypeName;
switch (bizType) {
case "1":
bizTypeName = "业务类型1";
break;
case "2":
bizTypeName = "业务类型2";
break;
default:
bizTypeName = null;
}
return bizTypeName;
}
03.写法3
public enum BizTypeEnum {
TYPE1("1", "业务类型1"),
TYPE2("2", "业务类型2");
private String code;
private String name;
BizTypeEnum(String code, String name) {
this.code = code;
this.name = name;
}
public String getCode() {
return code;
}
public String getName() {
return name;
}
public static String getBizTypeName(String bizType) {
for (BizTypeEnum type : BizTypeEnum.values()) {
if (type.getCode().equals(bizType)) {
return type.getName();
}
}
return null;
}
}
---------------------------------------------------------------------------------------------------------
public String getBizTypeName_终极版本 (String bizType) {
retrun BizTypeEnum.getBizTypeName(bizType);
}
1.11 if语句:return提前
01.优化前
function getDiscountMessage(user) {
if (user.isActive) {
if (user.hasDiscount) {
return `折扣已应用于 ${user.name}!`;
} else {
return `${user.name} 不符合折扣条件。`;
}
} else {
return `用户 ${user.name} 已被停用。`;
}
}
02.优化后
function getDiscountMessage(user) {
if (!user.isActive) {
return `用户 ${user.name} 已被停用。`;
}
if (!user.hasDiscount) {
return `${user.name} 不符合折扣条件。`;
}
// 理想情况:用户活跃且符合折扣条件
return `折扣已应用于 ${user.name}!`;
}
02.优化后
function validateOrder(order) {
if (!order.isValid) {
return `订单无效。`;
}
if (!order.userHasPermission) {
return `用户无权限。`;
}
if (!order.hasStock) {
return `库存不足。`;
}
// 理想情况:订单有效,用户有权限,库存足够
return `订单已成功验证!`;
}
1.12 if语句:策略模式+工厂模式
01.优化前
public Boolean pay_基础模式版本 (String payType) {
if("1".equals(payType)) {
return weixinPay();
} else if ("2".equals(payType)) {
return aliPay();
} else if ("3".equals(payType)) {
return jdPay();
}
return false;
}
02.策略模式
a.定义支付策略接口
public interface PayStrategy {
boolean pay();
}
b.为每种支付方式创建具体的策略类
public class WeixinPayStrategy implements PayStrategy {
@Override
public boolean pay() {
// 微信支付的具体实现
return weixinPay();
}
private boolean weixinPay() {
// 模拟微信支付的实现
System.out.println("使用微信支付");
return true;
}
}
public class AliPayStrategy implements PayStrategy {
@Override
public boolean pay() {
// 支付宝支付的具体实现
return aliPay();
}
private boolean aliPay() {
// 模拟支付宝支付的实现
System.out.println("使用支付宝支付");
return true;
}
}
c.使用枚举管理支付策略
public enum PayTypeEnum {
WEIXIN("1", new WeixinPayStrategy()),
ALIPAY("2", new AliPayStrategy());
private String code;
private PayStrategy strategy;
PayTypeEnum(String code, PayStrategy strategy) {
this.code = code;
this.strategy = strategy;
}
public static PayStrategy getStrategy(String code) {
for (PayTypeEnum payType : values()) {
if (payType.code.equals(code)) {
return payType.strategy;
}
}
return null;
}
}
d.优化后的支付方法
pubLic Boolean pay_策略模式版本 (String payType) {
PayStrategy strategy = PayTypeEnum.getStrategy(payType);
if (strategy != null) {
return strategy.pay();
}
return false;
}
e.调用示例
public class Main {
public static void main(String[] args) {
PayService payService = new PayService();
System.out.println(payService.pay("1")); // 使用微信支付
System.out.println(payService.pay("2")); // 使用支付宝支付
System.out.println(payService.pay("3")); // 不支持的支付类型,返回false
}
}
03.工厂模式
a.定义支付策略接口
public interface PaymentStrategy {
Boolean pay();
}
b.为每种支付方式创建具体的策略类
public class WeixinPay implements PaymentStrategy {
@Override
public Boolean pay() {
// 微信支付的具体实现
return true;
}
}
public class AliPay implements PaymentStrategy {
@Override
public Boolean pay() {
// 支付宝支付的具体实现
return true;
}
}
c.定义支付类型的枚举类
public enum PayType {
WEIXIN("1"),
ALIPAY("2");
private final String code;
PayType(String code) {
this.code = code;
}
public String getCode() {
return code;
}
public static PayType fromCode(String code) {
for (PayType payType : PayType.values()) {
if (payType.getCode().equals(code)) {
return payType;
}
}
throw new IllegalArgumentException("Invalid pay type code: " + code);
}
}
d.创建工厂类来生成对应的支付方式处理程序
public class PaymentFactory {
public static PaymentStrategy getPaymentStrategy(PayType payType) {
switch (payType) {
case WEIXIN:
return new WeixinPay();
case ALIPAY:
return new AliPay();
default:
throw new IllegalArgumentException("Invalid pay type: " + payType);
}
}
}
e.优化后的支付方法
public Boolean pay_工厂模式版本(String payType) {
try {
PayType type = PayType.fromCode(payType);
PaymentStrategy paymentStrategy = PaymentFactory.getPaymentStrategy(type);
return paymentStrategy.pay();
} catch (IllegalArgumentException e) {
return false;
}
}
1.13 null处理:10种
01.传统判空:告别 if 地狱
a.反面教材 ❌
java 体验AI代码助手 代码解读复制代码
if (user != null && user.getName() != null && user.getName().length() > 0) {
System.out.println("用户名:" + user.getName());
}
乍一看没问题,但:
链式访问容易漏判;
代码臃肿、难读;
多层嵌套,越写越像 if 地狱;
b.推荐写法 ✅
java 体验AI代码助手 代码解读复制代码
// 方式1:卫语句 - 提前返回
if (user == null || user.getName() == null || user.getName().isEmpty()) {
System.out.println("用户名:匿名用户");
return;
}
System.out.println("用户名:" + user.getName());
// 方式2:三元运算符 - 简化逻辑
String displayName = (user != null && user.getName() != null && !user.getName().isEmpty())
? user.getName()
: "匿名用户";
System.out.println("用户名:" + displayName);
虽然代码会多几行,但是这样处理的好处很明显:
卫语句能减少嵌套层级,让主逻辑更清晰;
三元运算符适合简单的空值替换场景;
最终目的是使代码更易读,逻辑分离明确;
02.工具类大合集:让判空逐渐优雅
a.字符串判空
java 体验AI代码助手 代码解读复制代码
// ❌ 原始写法
if (str != null && !str.trim().equals("")) { ... }
// ✅ Apache Commons
if (StringUtils.isNotBlank(str)) { ... }
// ✅ Hutool
if (StrUtil.isNotBlank(str)) { ... }
b.集合判空
java 体验AI代码助手 代码解读复制代码
// ❌ 原始写法
if (list != null && !list.isEmpty()) { ... }
// ✅ Spring Utils
if (!CollectionUtils.isEmpty(list)) { ... }
// ✅ Apache Commons
if (CollectionUtils.isNotEmpty(list)) { ... }
c.对象判空
java 体验AI代码助手 代码解读复制代码
// ❌ 原始写法
if (obj != null) { ... }
// ✅ Spring Utils
if (!ObjectUtils.isEmpty(obj)) { ... }
// ✅ Hutool
if (ObjUtil.isNotNull(obj)) { ... }
统一风格 + 提高可读性,选择一套坚持用下去就对了。
03.Optional 进阶:不仅判空,还能流式处理
a.链式取值
java 体验AI代码助手 代码解读复制代码
String city = Optional.ofNullable(user)
.map(User::getProfile)
.map(Profile::getAddress)
.map(Address::getCity)
.orElse("未知城市");
b.条件过滤
java 体验AI代码助手 代码解读复制代码
Optional<User> activeUser = Optional.ofNullable(user)
.filter(u -> u.isActive())
.filter(u -> u.getAge() > 18);
c.存在即执行
java 体验AI代码助手 代码解读复制代码
Optional.ofNullable(user)
.ifPresent(u -> sendWelcomeEmail(u.getEmail()));
注意:
Optional 不推荐用作 方法参数;
也不建议用于 类字段;
它可以用于返回值,用来明确告知调用方——该接口返回值可能缺失;
04.参数校验:在入口拦截 null
a.Spring Boot 项目
java 体验AI代码助手 代码解读复制代码
@PostMapping("/create")
public void createUser(@Valid @RequestBody UserDTO user) {
// 这里的 user 已经通过校验,字段不会为 null
userService.save(user); // 无需再判空
}
// DTO 中的校验注解
public class UserDTO {
@NotNull(message = "用户名不能为空")
@NotBlank(message = "用户名不能为空字符串")
private String name;
@NotNull(message = "邮箱不能为空")
@Email(message = "邮箱格式不正确")
private String email;
}
b.普通方法调用
java 体验AI代码助手 代码解读复制代码
public void createUser(UserDTO user) {
// 方法入口立即校验
Objects.requireNonNull(user, "用户信息不能为空");
Objects.requireNonNull(user.getName(), "用户名不能为空");
Objects.requireNonNull(user.getEmail(), "邮箱不能为空");
// 后续逻辑无需判空
userService.save(user);
}
核心思想:
Web 层用 @Valid 注解校验;
Service 层用 Objects.requireNonNull() 校验;
其他 Web 框架(如 Solon、Quarkus)也有类似的参数校验机制;
在入口处拦截,让内部逻辑专注于业务,减少心智负担,同时也避免业务代码更纯粹,不用被判空的逻辑污染。
05.永远不要返回 null 集合
a.反面教材
java 体验AI代码助手 代码解读复制代码
public List<Order> getOrders(String userId) {
if (noData) return null; // 猜猜后面会发生什么
return orderList;
}
// 调用方必须判空,否则...
List<Order> orders = getOrders("123");
for (Order order : orders) { // 触发 NullPointerException
System.out.println(order.getId());
}
为什么不建议返回 null 集合?
调用方容易忘记判空:大多数人习惯直接遍历集合,很少会去想集合本身可能是 null;
增加心智负担:每次调用都得想一下这个方法会不会返回 null;
代码冗余:避免到处都是 if (list != null) 的判断;
违反直觉:集合的语义其实就是容器,空容器比 null 更符合预期;
b.推荐写法
java 体验AI代码助手 代码解读复制代码
public List<Order> getOrders(String userId) {
return Optional.ofNullable(orderList)
.orElse(Collections.emptyList());
}
// 调用方可以安心遍历
List<Order> orders = getOrders("123");
for (Order order : orders) { // 相当安全!即使没数据也不会报错
System.out.println(order.getId());
}
更好的做法:
DAO 层、Service 层统一约定:永远不返回 null 集合或数组;
返回 Collections.emptyList() 或 new ArrayList<>();
调用方就能安心遍历、安心调用 size()、isEmpty() 等方法;
06.Objects.requireNonNull() 的隐藏用法
a.校验与赋值
java 体验AI代码助手 代码解读复制代码
this.name = Objects.requireNonNull(name, "name cannot be null");
// 一行代码既校验又赋值
public void setUser(User user) {
this.user = Objects.requireNonNull(user, "User cannot be null");
// user 在这里永远不会是 null,IDE 也能识别出来
}
b.流式处理中当过滤器
java 体验AI代码助手 代码解读复制代码
users.stream()
.map(u -> Objects.requireNonNull(u.getEmail(), "Email missing"))
.collect(toList());
妙处就在于 IDE 的静态分析器会识别这个方法,后续代码会自动帮我们检查,不再有 空值警告。
07.接口默认方法 + null 处理
a.Java 8+ 的接口默认方法
java 体验AI代码助手 代码解读复制代码
interface UserService {
// 原始方法,可能返回 null
User findUserById(String id);
// 额外提供一个安全版本
default Optional<User> findUserSafely(String id) {
return Optional.ofNullable(findUserById(id));
}
// 额外提供另一个带默认值的版本
default User findUserOrDefault(String id) {
return Optional.ofNullable(findUserById(id))
.orElse(User.anonymous());
}
}
这样写, 调用方有三种选择,不仅三种方法能够见名知意,向后兼容还更安全,调用方只会夸我们 🐂🍺。
08.Record + 构造时校验
a.Java 14+ 的 Record 配合构造器校验
java 体验AI代码助手 代码解读复制代码
public record User(String name, String email) {
// 紧凑构造器,自动校验
public User {
name = Objects.requireNonNull(name, "Name cannot be null");
email = Objects.requireNonNull(email, "Email cannot be null");
}
// 静态工厂方法处理可选字段
public static User createOptional(String name, String email) {
return new User(
Optional.ofNullable(name).orElse("Anonymous"),
Optional.ofNullable(email).orElse("[email protected]")
);
}
}
Record 天然不可变,配合构造时校验,直接从根源上消除 null 传播,把NPE扼杀在摇篮中。
09.@Nullable / @NonNull 注解 + IDE 静态检查
a.基础用法
java 体验AI代码助手 代码解读复制代码
public class UserService {
// 明确声明可能返回 null
public @Nullable User findUser(String id) {
return repository.findById(id);
}
// 明确声明参数不能为 null
public void saveUser(@NonNull User user) {
repository.save(user);
}
// 字段也可以标注
@NonNull private String serviceName = "UserService";
@Nullable private User cachedUser;
}
b.IDE 智能提示
java 体验AI代码助手 代码解读复制代码
// 1. 调用可能返回 null 的方法
User user = userService.findUser("123");
user.getName(); // IDE 黄色警告:Possible NPE!
// 2. 传入 null 参数
userService.saveUser(null); // IDE 警告:Parameter should not be null
// 3. 正确的处理方式
User user = userService.findUser("123");
if (user != null) {
user.getName(); // ✅ IDE 不再警告,智能推断非空
}
c.配置 IDE 检查级别
IntelliJ IDEA:Settings → Inspections → Probable bugs → Nullability problems
可以设置为 Error 级别,把警告升级为编译错误
支持整个项目的批量检查
d.注解选择
java 体验AI代码助手 代码解读复制代码
// 1. JetBrains 注解 (推荐,IDE 原生支持)
import org.jetbrains.annotations.NotNull;
import org.jetbrains.annotations.Nullable;
// 2. JSR-305 (Google、Spring 都在用)
import javax.annotation.Nonnull;
import javax.annotation.Nullable;
// 3. Spring 框架注解
import org.springframework.lang.NonNull;
import org.springframework.lang.Nullable;
e.契约式编程
java 体验AI代码助手 代码解读复制代码
// 契约式编程:方法级别的空值约定
@Contract("null -> null; !null -> !null")
public @Nullable String processName(@Nullable String input) {
return input == null ? null : input.trim();
}
// IDE 能理解这个契约,智能推断返回值
String name = processName(user.getName());
// 如果 user.getName() 确定非空,IDE 就知道 name 也非空
结合这些注解,让我们能在写代码时就及时发现空指针的异常,非常高效。
10.Stream 的隐式 null 过滤
a.隐式过滤 null
java 体验AI代码助手 代码解读复制代码
List<String> names = Arrays.asList("Alice", null, "Bob", null, "Charlie");
// 隐式过滤 null
List<String> validNames = names.stream()
.filter(Objects::nonNull) // 过滤 null
.map(String::toUpperCase)
.collect(toList());
b.flatMap 自动跳过 null Optional
java 体验AI代码助手 代码解读复制代码
List<Optional<String>> optionals = Arrays.asList(
Optional.of("Alice"),
Optional.empty(),
Optional.of("Bob")
);
List<String> result = optionals.stream()
.flatMap(Optional::stream) // 空的 Optional 被自动跳过
.collect(toList());
c.大招——你绝对想不到
说了这么多 Java 的 null 处理技巧,但说实话——你累不累?
我是挺累的。
看看 Kotlin 是怎么做的:
kotlin 体验AI代码助手 代码解读复制代码
// ❌ Java 写法:一堆判空逻辑
Optional.ofNullable(user)
.map(User::getProfile)
.map(Profile::getAddress)
.map(Address::getCity)
.orElse("Unknown");
// Kotlin 写法:安全调用操作符
val city = user?.profile?.address?.city ?: "Unknown"
一行代码解决所有问题!
d.Kotlin 类型系统
更牛的是,Kotlin 在类型系统层面就区分了可空和非空:
kotlin 体验AI代码助手 代码解读复制代码
var name: String = "Alice" // 非空类型,编译器保证不会是 null
var email: String? = null // 可空类型,必须显式处理
name = null // ❌ 编译错误!
email?.length // ✅ 安全调用,null 时返回 null
email!!.length // ⚠️ 强制解包,确定非空时使用
类型系统直接告诉你哪里可能有 null,哪里绝对没有 null——这不比写一堆 Optional.ofNullable() 香吗?
而且,Kotlin 100% 兼容 Java,基本上可以渐进式迁移。
体验过 ?. 和 ?: 的丝滑后,谁还想再去写那又臭又长的裹脚布?
有时候,解决问题的最好方式,是解决掉提出问题的人。
1.14 return语句:11种
01.提前返回(卫语句):让主逻辑更清晰
a.核心思想
在方法开头处理掉所有“异常”或“特殊”情况,让方法的主体部分专注于核心逻辑。
b.反面教材
public void processData(Data data) {
if (data != null) {
if (data.isValid()) {
if (checkPermission(data)) {
// 核心逻辑开始...
System.out.println("处理数据:" + data.getContent());
// ...
// 大量核心代码嵌套在这里
// ...
System.out.println("处理完成");
} else {
System.out.println("权限不足");
}
} else {
System.out.println("数据无效");
}
} else {
System.out.println("数据为null");
}
}
-----------------------------------------------------------------------------------------------------
很难评,嵌套过深,核心逻辑被包裹在层层 if-else 中,可读性太差
c.推荐写法
public void processData(Data data) {
if (data == null) {
System.out.println("数据为null");
return; // 提前返回
}
if (!data.isValid()) {
System.out.println("数据无效");
return; // 提前返回
}
if (!checkPermission(data)) {
System.out.println("权限不足");
return; // 提前返回
}
// --- 核心逻辑开始 ---
// 经过前面的卫语句检查,这里的data一定是有效且有权限的
System.out.println("处理数据:" + data.getContent());
// ...
// 核心代码不再嵌套,非常清晰
// ...
System.out.println("处理完成");
}
-----------------------------------------------------------------------------------------------------
通过提前 return,避免了深层嵌套,让主要的处理流程更加顺畅,代码逻辑一目了然
02.避免 return 后的 else 块
a.反面教材
public String getStatus(int code) {
if (code == 0) {
return "Success";
} else {
// 其他逻辑
return "Error: " + getErrorMessage(code);
}
}
-----------------------------------------------------------------------------------------------------
虽然没错,但 else 显得有些多余,未免画蛇添足
b.推荐写法
public String getStatus(int code) {
if (code == 0) {
return "Success";
}
// 如果 code == 0,上面的 return 已经退出方法了
// 能执行到这里,说明 code != 0,天然就是 else 的逻辑
return "Error: " + getErrorMessage(code);
}
-----------------------------------------------------------------------------------------------------
代码更简洁,减少了一层不必要的缩进
03.简化布尔返回
a.反面教材
public boolean isEligible(User user) {
if (user.getAge() >= 18 && user.isActive()) {
return true;
} else {
return false;
}
}
-----------------------------------------------------------------------------------------------------
点评:非常啰嗦
b.推荐写法
public boolean isEligible(User user) {
return user.getAge() >= 18 && user.isActive();
}
-----------------------------------------------------------------------------------------------------
一行搞定,清晰明了
04.减少不必要的临时变量
a.反面教材
public int calculateSum(int a, int b) {
int sum = a + b;
return sum;
}
public String getUserGreeting(User user) {
String greeting = "Hello, " + user.getName();
return greeting;
}
-----------------------------------------------------------------------------------------------------
sum 和 greeting 变量并非必需
b.推荐写法
public int calculateSum(int a, int b) {
return a + b;
}
public String getUserGreeting(User user) {
// 如果 user.getName() 调用成本高或需要复用,临时变量可能有意义
// 但在这个简单场景下,直接返回更简洁
return "Hello, " + user.getName();
}
-----------------------------------------------------------------------------------------------------
更直接
但注意,如果表达式复杂或计算结果需要复用,还是考虑使用临时变量,可以提高可读性或效率,需要权衡
05.巧用三元运算符
a.反面教材
public String getLevel(int score) {
String level;
if (score >= 60) {
level = "Pass";
} else {
level = "Fail";
}
return level;
}
b.推荐写法
public String getLevel(int score) {
return score >= 60 ? "Pass" : "Fail";
}
-----------------------------------------------------------------------------------------------------
一行代码,清晰表达了条件选择
但是千万注意不要滥用,过分嵌套的三元运算符会降低可读性
06.返回空集合而非 null
a.反面教材
public List<String> getUsers(String department) {
List<String> users = findUsersByDepartment(department);
if (users.isEmpty()) { // 或者 users == null
return null; // 调用方需要检查 null !
}
return users;
}
b.推荐写法
import java.util.Collections;
import java.util.List;
public List<String> getUsers(String department) {
List<String> users = findUsersByDepartment(department);
// 假设 findUsersByDepartment 可能返回 null 或空 List
if (users == null || users.isEmpty()) {
return Collections.emptyList(); // 返回不可变的空列表
}
// 或者更好的是,确保 findUsersByDepartment 内部就返回空列表而不是 null
return users;
}
// 调用方代码,无需担心 NullPointerException
List<String> userList = service.getUsers("IT");
for (String user : userList) { // 直接遍历,安全
System.out.println(user);
}
-----------------------------------------------------------------------------------------------------
调用方代码更健壮、简洁,符合“防御性编程”的原则。
07.利用 Optional 优雅处理可能缺失的值
a.反面教材
public User findUserById(String id) {
// ... 查询逻辑 ...
if (found) {
return user;
} else {
return null; // 调用方必须检查 null
}
}
// 调用方
User user = findUserById("123");
if (user != null) { // 繁琐的 null 检查
System.out.println(user.getName());
}
b.推荐写法
import java.util.Optional;
public Optional<User> findUserById(String id) {
// ... 查询逻辑 ...
if (found) {
return Optional.of(user);
} else {
return Optional.empty();
}
}
// 调用方
findUserById("123")
.ifPresent(user -> System.out.println(user.getName())); // 清晰地处理存在的情况
// 或者提供默认值
String userName = findUserById("123")
.map(User::getName)
.orElse("Unknown User");
-----------------------------------------------------------------------------------------------------
Optional 强制调用者思考值不存在的情况,并通过链式调用提供了更流畅的处理方式,减少空指针风险
但是Java的Optional非常蛋疼,如果使用时不加注意,本应返回Optional的方法,返回了null,反而会增加负担,因此团队的开发规范至关重要
08.循环中的提前返回
a.反面教材
public Product findProductByName(List<Product> products, String name) {
Product foundProduct = null;
for (Product product : products) {
if (product.getName().equals(name)) {
foundProduct = product;
break; // 找到后跳出循环
}
}
// 循环结束后再返回
return foundProduct;
}
-----------------------------------------------------------------------------------------------------
需要一个额外的 foundProduct 变量,并且在循环外返回
浪费性能
b.推荐写法
public Product findProductByName(List<Product> products, String name) {
for (Product product : products) {
if (product.getName().equals(name)) {
return product; // 一旦找到,立即返回
}
}
// 循环正常结束,说明没找到
return null; // 或者 Optional.empty()
}
-----------------------------------------------------------------------------------------------------
逻辑更直接,代码更紧凑
09.利用 switch 表达式(Java 14+)
a.反面教材(传统 switch 语句)
public String getWeekdayType(DayOfWeek day) {
String type;
switch (day) {
case MONDAY:
case TUESDAY:
case WEDNESDAY:
case THURSDAY:
case FRIDAY:
type = "Workday";
break;
case SATURDAY:
case SUNDAY:
type = "Weekend";
break;
default:
throw new IllegalArgumentException("Invalid day: " + day);
}
return type;
}
b.推荐写法(使用 switch 表达式)
public String getWeekdayType(DayOfWeek day) {
return switch (day) {
case MONDAY, TUESDAY, WEDNESDAY, THURSDAY, FRIDAY -> "Workday";
case SATURDAY, SUNDAY -> "Weekend";
// default 分支通常是必需的,除非覆盖了所有枚举常量
// 如果逻辑确定上面的 case 已经覆盖所有情况,可以不写 default,
// 但如果传入未覆盖的值会抛异常。
// 或者明确处理:
// default -> throw new IllegalArgumentException("Invalid day: " + day);
};
}
-----------------------------------------------------------------------------------------------------
代码量显著减少,-> 语法更直观,且 switch 表达式要求覆盖所有情况(或有 default),更安全
10.返回更有意义的类型(枚举或自定义对象)
a.反面教材
public int processOrder(Order order) {
if (order == null) return -1; // -1 代表失败
if (!checkInventory(order)) return 1; // 1 代表库存不足
// ... 处理 ...
if (!paymentSuccess(order)) return 2; // 2 代表支付失败
return 0; // 0 代表成功
}
// 调用方
int resultCode = processOrder(myOrder);
if (resultCode == 0) { ... }
else if (resultCode == 1) { ... } // 难以理解和维护
b.推荐写法
public enum OrderStatus { SUCCESS, FAILED_NULL_ORDER, FAILED_INVENTORY, FAILED_PAYMENT }
public OrderStatus processOrder(Order order) {
if (order == null) return OrderStatus.FAILED_NULL_ORDER;
if (!checkInventory(order)) return OrderStatus.FAILED_INVENTORY;
// ... 处理 ...
if (!paymentSuccess(order)) return OrderStatus.FAILED_PAYMENT;
return OrderStatus.SUCCESS;
}
// 调用方
OrderStatus status = processOrder(myOrder);
if (status == OrderStatus.SUCCESS) { ... }
else if (status == OrderStatus.FAILED_INVENTORY) { ... } // 清晰易懂
-----------------------------------------------------------------------------------------------------
返回类型本身就携带了业务含义,代码自解释,更易于维护和扩展
11.注意 finally 块中的 return(陷阱!)
a.反面教材(极不推荐)
public int trickyReturn() {
try {
System.out.println("Trying...");
// 假设这里发生异常或正常返回 1
// throw new RuntimeException("Oops!");
return 1;
} catch (Exception e) {
System.out.println("Caught exception");
return 2; // 试图在 catch 中返回 2
} finally {
System.out.println("Finally block");
return 3; // finally 中的 return 会覆盖前面的所有返回/异常!
}
// 这个方法最终会返回 3,即使 try 或 catch 中有 return 或抛出异常
}
-----------------------------------------------------------------------------------------------------
finally 的主要目的是资源清理(如关闭流、释放锁),而不是返回值
在这里 return 会让程序行为变得诡异
b.推荐写法
public int cleanReturn() {
int result = -1; // 默认值或错误码
Connection conn = null;
try {
conn = getConnection();
// ... 使用 conn 操作 ...
result = 1; // 操作成功
return result; // 在 try 中返回
} catch (SQLException e) {
System.err.println("Database error: " + e.getMessage());
result = -2; // 数据库错误码
return result; // 在 catch 中返回
} finally {
// 只做清理工作
if (conn != null) {
try {
conn.close();
System.out.println("Connection closed.");
} catch (SQLException e) {
System.err.println("Failed to close connection: " + e.getMessage());
}
}
// 不要在 finally 中 return
}
}
-----------------------------------------------------------------------------------------------------
finally 专注于它的本职工作——资源清理,让返回值逻辑在 try 和 catch 中清晰地处理
1.15 优化:分布式锁
01.分布式锁运用
a.业务场景描述
简单的活动报名逻辑:判断用户是否报名,没有报名则插入报名记录,同时报名的剩余名额减一。
虽然并发量不高,但与秒杀逻辑类似。
b.原代码分析
a.controller 层伪代码:
public Response cancelActivityEnroll(@RequestBody Param req) {
RLock lock = redissonClient.getLock(RedisKeyConstant.ACTIVITY_ENROLL_KEY + req.getActivityId());
try {
lock.lock();
service.cancelActivityEnroll(req);
return Response.ok();
} finally {
lock.unlock();
}
}
-------------------------------------------------------------------------------------------------
点评:
建议直接锁用户,将 Key 改成活动ID+userID,提高并发性能和用户体验。
无法立即获取锁时,直接返回提示。
如果 lock 方法报错但 finally 执行,则可能解开其他线程持有的锁。
b.service 层代码:
@Transactional
public Response activityEnroll(WorkersActivityEnrollCreateReq req) {
LoginUser user = UserUtil.getUser();
Activity activity = service.getById(req.getActivityId());
//1.校验活动信息:是否有剩余名额,活动状态是否正常。
Boolean checkRet = checkActivity();
if (!checkRet) {
Response.error("活动已结束....");
}
//2.查询用户是否存在报名信息,含 HTTP 请求。
Boolean enroll = getUserEnroll(user.getId, req.getActivityId);
if (enroll) {
Response.error("已经报过名了.....");
}
//3.插入报名信息。
baseMapper.insert(enrollEntity);
//4.活动剩余名额 -1。
service.lambdaUpdate().eq(Activity::getId, req.getActivityId())
.set(Activity::getCouldEnrollNum, activity.getCouldEnrollNum() - 1).update();
return Result.OK();
}
-------------------------------------------------------------------------------------------------
点评:
事务范围应缩小,避免将 HTTP 请求放入事务内。
扣减库存时,需多加一个条件(剩余名额需大于1)。
02.优化后的代码
a.controller 层优化方案
锁用户,防止重复点击,并优化锁的处理逻辑以防止极端情况解锁其他线程持有的锁。
RLock lock = redissonClient.getLock(RedisKeyConstant.ACTIVITY_ENROLL_KEY + req.getActivityId() + userID);
try {
Boolean lockRet = lock.tryLock(0, 10, TimeUnit.SECONDS);
return lockRet ? lbWorkersActivityEnrollService.activityEnroll(req)
: Result.error("网络繁忙");
} catch (InterruptedException e) {
log.error("lock fail", e);
return Result.error("网络繁忙");
} finally {
if (lock.isHeldByCurrentThread()) {
lock.unlock();
}
}
b.service 层优化方案
缩小事务范围,使用事务模板;同时优化扣减库存逻辑以防止锁失效导致命令报错。
public Response activityEnroll(WorkersActivityEnrollCreateReq req) {
LoginUser user = UserUtil.getUser();
checkMethod();
transactionTemplate.execute(new TransactionCallbackWithoutResult() {
@Override
protected void doInTransactionWithoutResult(TransactionStatus status) {
try {
baseMapper.insert(enrollEntity);
Boolean suc = service.lambdaUpdate().eq(Activity::getId, req.getActivityId())
.lt(Activity::getCouldEnrollNum, 1)
.set(Activity::getCouldEnrollNum, activity.getCouldEnrollNum() - 1).update();
if (!suc) {
throw new RuntimeException("名额扣减失败");
}
} catch (Exception e) {
status.setRollbackOnly();
throw new RuntimeException("报名失败", e);
}
}
});
return Response.OK();
}
1.16 优化:定时发送短信
01.原代码分析
a.消费者
@RabbitListener(queues = RabbitMqConstant.SMS_DELAY_QUEUE)
public void doSmsTask(Message message, Channel channel ) {
String id = new String(message.getBody());
service.actionSendTask(id);
}
-----------------------------------------------------------------------------------------------------
点评:
未捕捉异常且未绑定死信队列,异常后可能出现重复消费消息。
缺少幂等处理。
b.业务逻辑
public void actionSendTask(Long id) {
Task task = getById(id);
checkTask();
List<String> phones = queryPhones();
String[] types = getTaskType().split(COMMA_EN);
for (String type : types) {
strategyContext.setSmsStrategy(StgFactory.getStrategy(Integer.valueOf(type)));
smsStrategyContext.send(task, phones);
}
}
-----------------------------------------------------------------------------------------------------
点评:
for循环处理策略时,某策略如果报错未捕捉可能中断其他策略。
smsStrategyContext 的属性设计存在线程安全问题(多线程间可能互相影响)。
02.优化方案
a.消息消费:
绑定死信队列,并加入幂等处理逻辑:
public void doSmsTask(Message message, Channel channel ) {
String id = new String(message.getBody());
String redisKey = MESSAGE_PREFIX + messageId;
Boolean suc = redisTemplate.opsForValue().setIfAbsent(redisKey, "processed", EXPIRATION_TIME, TimeUnit.SECONDS);
if (suc) {
service.actionSendTask(id);
}
}
b.处理业务逻辑:
异常捕获与线程安全加锁处理方案:
public void actionSendTask(Long id) {
Task task = getById(id);
checkTask();
List<String> phones = queryPhones();
String[] types = getTaskType().split(COMMA_EN);
for (String type : types) {
try {
smsStrategyContext.sendByType(task, phones, type);
} catch (Exception e) {
log.error("策略异常:", e);
}
}
}
c.StrategyContext 调整:
通过同步锁或 ThreadLocal 确保线程安全:
public class StrategyContext {
private ISmsStrategy smsStrategy;
public synchronized Boolean sendByType(Task task, List<String> phones, Integer type) throws Exception {
setSmsStrategy(StgFactory.getStrategy(type));
smsStrategy.sendSms(task, phones);
smsStrategy.sendAfterHandle(task);
return true;
}
}
1.17 存储:OSS
01.依赖
<dependency>
<groupId>com.aliyun.oss</groupId>
<artifactId>aliyun-sdk-oss</artifactId>
<version>3.10.2</version>
</dependency>
02.配置文件
sky:
alioss:
endpoint: oss-cn-beijing.aliyuncs.com
bucket-name: sky-take-out-refer
03.批量注值
@Component
@ConfigurationProperties(prefix = "sky.alioss")
@Data
public class AliOssProperties {
private String endpoint;
private String accessKeyId;
private String accessKeySecret;
private String bucketName;
}
04.工具类
@Data
@AllArgsConstructor
@Slf4j
public class AliOssUtil {
private String endpoint;
private String accessKeyId;
private String accessKeySecret;
private String bucketName;
/**
* 文件上传
*
* @param bytes
* @param objectName
* @return
*/
public String upload(byte[] bytes, String objectName) {
// 创建OSSClient实例。
OSS ossClient = new OSSClientBuilder().build(endpoint, accessKeyId, accessKeySecret);
try {
// 创建PutObject请求。
ossClient.putObject(bucketName, objectName, new ByteArrayInputStream(bytes));
} catch (OSSException oe) {
System.out.println("Caught an OSSException, which means your request made it to OSS, "
+ "but was rejected with an error response for some reason.");
System.out.println("Error Message:" + oe.getErrorMessage());
System.out.println("Error Code:" + oe.getErrorCode());
System.out.println("Request ID:" + oe.getRequestId());
System.out.println("Host ID:" + oe.getHostId());
} catch (ClientException ce) {
System.out.println("Caught an ClientException, which means the client encountered "
+ "a serious internal problem while trying to communicate with OSS, "
+ "such as not being able to access the network.");
System.out.println("Error Message:" + ce.getMessage());
} finally {
if (ossClient != null) {
ossClient.shutdown();
}
}
//文件访问路径规则 https://BucketName.Endpoint/ObjectName
StringBuilder stringBuilder = new StringBuilder("https://");
stringBuilder
.append(bucketName)
.append(".")
.append(endpoint)
.append("/")
.append(objectName);
log.info("文件上传到:{}", stringBuilder.toString());
return stringBuilder.toString();
}
}
05.注入IOC容器
@Configuration
@Slf4j
public class OssConfiguration {
@Bean
@ConditionalOnMissingBean
public AliOssUtil aliOssUtil(AliOssProperties aliOssProperties){
log.info("开始创建阿里云文件上传工具类对象:{}",aliOssProperties);
return new AliOssUtil(aliOssProperties.getEndpoint(),
aliOssProperties.getAccessKeyId(),
aliOssProperties.getAccessKeySecret(),
aliOssProperties.getBucketName());
}
}
06.测试:控制台
2023-08-23 17:56:59.826 INFO 6204 --- [ main] com.sky.config.OssConfiguration : 开始创建阿里云文件上传工具类对象:AliOssProperties(endpoint=oss-cn-beijing.aliyuncs.com, bucketName=sky-take-out-refer)
2023-08-23 17:57:00.140 INFO 6204 --- [ main] com.sky.config.WebMvcConfiguration : 开始注册自定义拦截器...
2023-08-23 17:57:00.305 INFO 6204 --- [ main] com.sky.config.WebMvcConfiguration : 扩展消息转换器...
返回oss路径:https://sky-take-out-refer.oss-cn-beijing.aliyuncs.com/be79e262-f8b3-4bcf-bb19-22690991ee8a.jpg
07.测试:Controller层
@RestController
@RequestMapping("/admin/common")
@Api(tags = "通用接口")
@Slf4j
public class CommonController {
@Autowired
private AliOssUtil aliOssUtil;
/**
* 文件上传
* @param file
* @return
*/
@PostMapping("/upload")
@ApiOperation("文件上传")
public Result<String> upload(MultipartFile file){
log.info("文件上传:{}",file);
try {
//原始文件名
String originalFilename = file.getOriginalFilename();
//截取原始文件名的后缀 dfdfdf.png
String extension = originalFilename.substring(originalFilename.lastIndexOf("."));
//构造新文件名称
String objectName = UUID.randomUUID().toString() + extension;
//文件的请求路径
String filePath = aliOssUtil.upload(file.getBytes(), objectName);
return Result.success(filePath);
} catch (IOException e) {
log.error("文件上传失败:{}", e);
}
return Result.error(MessageConstant.UPLOAD_FAILED);
}
}
1.18 存储:MinIO
01.依赖
<dependency>
<groupId>io.minio</groupId>
<artifactId>minio</artifactId>
<version>7.1.0</version>
</dependency>
02.配置文件
minio:
accessKey: minioadmin
secretKey: minioadmin
bucket: leadnews
endpoint: http://127.0.0.1:9000
readPath: http://127.0.0.1:9000
03.测试类
@RunWith(SpringRunner.class)
@SpringBootTest(classes = MinIOApplication.class)
public class MinIOTest {
@Autowired
private FileStorageService fileStorageService;
@Test
public void testUpdateImgFile() {
try {
FileInputStream fileInputStream = new FileInputStream("C:\\document\\Background\\01.bio\\09.jpg");
String filePath = fileStorageService.uploadImgFile("", "09.jpg", fileInputStream);
System.out.println(filePath);
} catch (FileNotFoundException e) {
e.printStackTrace();
}
}
}
04.Controller层
@RestController
@RequestMapping("/api/v1/material")
public class WmMaterialController {
@Autowired
private FileStorageService fileStorageService;
@PostMapping("/upload_picture")
public ResponseResult uploadPicture(MultipartFile multipartFile) {
//1.检查参数
if(multipartFile == null || multipartFile.getSize() == 0){
return ResponseResult.errorResult(AppHttpCodeEnum.PARAM_INVALID);
}
//2.上传图片到minIO中
String fileName = UUID.randomUUID().toString().replace("-", "");
//aa.jpg
String originalFilename = multipartFile.getOriginalFilename();
String postfix = originalFilename.substring(originalFilename.lastIndexOf("."));
String fileId = null;
try {
fileId = fileStorageService.uploadImgFile("", fileName + postfix, multipartFile.getInputStream());
log.info("上传图片到MinIO中,fileId:{}",fileId);
} catch (IOException e) {
e.printStackTrace();
log.error("WmMaterialServiceImpl-上传文件失败");
}
//3.保存到数据库中
WmMaterial wmMaterial = new WmMaterial();
wmMaterial.setUserId(WmThreadLocalUtil.getUser().getId());
wmMaterial.setUrl(fileId);
wmMaterial.setIsCollection((short)0);
wmMaterial.setType((short)0);
wmMaterial.setCreatedTime(new Date());
save(wmMaterial);
//4.返回结果
return ResponseResult.okResult(wmMaterial);
}
}
1.19 存储:文件VS对象
01.文件存储
a.结构
采用层次化的目录结构,类似于个人电脑上的文件夹系统
b.访问方式
通过特定的文件路径进行访问
c.优点
直观且易于管理
支持细粒度的权限控制
适合快速访问小型文件
d.局限性
在处理海量数据时存在可扩展性限制
e.应用场景
适用于需要层次目录结构、快速访问小文件及细粒度权限控制的场景
f.实际应用
公司共享网络驱动器,员工通过文件夹访问共享文档和电子表格
02.对象存储
a.结构
采用扁平结构,不使用层次目录
b.访问方式
通过唯一标识符(ID)进行检索
c.优点
高度可扩展性,能够处理PB级数据
支持丰富的元数据,便于高效数据管理和检索
适合大数据应用
d.应用场景
适用于处理大数据集、需要丰富元数据和无缝扩展的系统
e.实际应用
流媒体服务如Netflix和YouTube,用于存储大量的媒体内容,便于高效检索和个性化推荐
1.20 建议:while(true)避免使用
01.优化前
a.代码
public void execute() {
while (true) {
try {
//1.查询要处理的订单数据
List<Order> orderList = queryOrders();
//2.如果没有要处理的数据,直接跳出while循环
if (CollectionUtil.isEmpty(orderList)) {
break;
}
//3.依次处理订单,更新订单状态
for (Order order : orderList) {
dealOreder(order);
}
} catch (Exception e) {
log.error("执行错误");
}
}
}
b.循环结构和退出机制
使用 while (true) 循环,然后通过在订单列表为空时使用 break 语句跳出循环。这样会不断地重复查询订单数据,直到查询结果为空
c.异常处理范围
try-catch 块包裹了整个查询和处理的逻辑
如果在查询订单或处理订单的过程中发生异常,都会被捕获,并记录错误日志
这意味着,如果在查询订单时发生异常,循环不会被中断,会继续进行下一次查询
02.优化后
a.代码
public void execute() {
//1.查询要处理的订单数据
List<Order> orderList = queryOrders();
//2.如果没有要处理的数据,直接跳出while循环
if (CollectionUtil.isEmpty(orderList)) {
break;
}
//3.依次处理订单,更新订单状态
for (Order order : orderList) {
try {
dealOreder(order);
} catch (Exception e) {
log.error("执行错误");
}
}
}
b.循环结构和退出机制
取消了无限循环,只进行一次订单查询。如果订单列表为空,直接返回,结束方法的执行
c.异常处理范围
try-catch 块包裹的是单个订单的处理逻辑
如果在处理某个订单时发生异常,异常被捕获并记录错误日志,但不会影响其他订单的处理。每个订单处理都有独立的异常处理
1.21 建议:MapStruct取代BeanUtils
00.汇总
a.BeanUtils.copyProperties,只有同时满足下面3个条件才能拷贝成功
source和target的字段需要有getter和setter方法
source和target的字段名称需要相同
source和target的字段类型需要相同
b.替代方案
1.原始setter和getter方法
2.MapStruct
01.原始的setter和getter
a.介绍
控制的粒度更细,更灵活
性能比BeanUtils.copyProperties()的反射更高效
如果拷贝字段有名称和类型更改或者setter和getter方法丢失,编译期立马能发现
b.示例
import java.util.UUID;
public Target convetSourceToTarget(Source1 source1, Source2 source2) {
Target target = new Target();
target.setId(UUID.randomUUID().toString());
target.setName(source1.getName());
target.setAge(source1.getAge());
target.setAddress(source2.getAddress());
}
02.MapStruct
a.介绍
编译时生成代码:MapStruct在编译时生成映射代码,避免了运行时的性能开销
类型安全:生成的代码是类型安全的,编译时即可发现映射错误
易于使用:通过注解配置,使用简单直观
b.实现原理
a.注解处理器机制
MapStruct使用了Java的注解处理器机制,通过实现javax.annotation.processing.Processor接口,在编译时扫描和处理特定的注解
b.注解扫描与处理
MapStruct定义了@Mapper、@Mapping 等注解,编译器会调用注解处理器来处理这些注解
c.代码生成
解析注解和类结构:MapStruct 解析@Mapper接口、方法签名以及@Mapping注解,获取源类和目标类的字段信息
生成映射方法:根据解析结果,生成具体的映射方法,并调用源类的getter方法获取值并赋值给目标类的对应字段
处理复杂映射:对于嵌套对象、集合等复杂结构,MapStruct会递归生成相应的映射代码
d.类型安全与错误检查
在代码生成过程中,MapStruct会进行类型检查,确保源字段和目标字段的类型匹配,如果发现类型不匹配会报编译时错误
e.支持自定义
MapStruct允许用户自定义映射逻辑,比如下面的示例,通过qualifiedByName和 @Named注解实现了一个自定义的方法
@Mapping(target = "tags", source = "tagSet", qualifiedByName = "defaultToEmptySet")
UserEntity fromDO(UserDTO dto);
@Named("defaultToEmptySet")
default Set<String> defaultToEmptySet(Set<String> items) {
return items == null ? new LinkedHashSet<>() : items;
}
c.依赖
<dependency>
<groupId>org.mapstruct</groupId>
<artifactId>mapstruct</artifactId>
<version>1.5.2.Final</version>
</dependency>
d.Mapper接口
import org.mapstruct.Mapper;
import org.mapstruct.Mapping;
import org.mapstruct.factory.Mappers;
@Mapper
public interface TestMapper {
TestMapper INSTANCE = Mappers.getMapper(TestMapper.class);
/**
* 在Mapping中定义对象的 source和 target字段,如果source和 target的类型不一样,编译期会报错
*/
@Mapping(source = "name", target = "fullName")
UserDTO toDTO(UserEntity entity);
}
e.两个实体类
public class UserDTO {
private String fullName;
private int age;
}
public class UserEntity {
private String name;
private int age;
}
f.测试类
public class MapStructTest {
public static void main(String[] args) {
UserEntity entity = new UserEntity();
entity.setName("John");
entity.setAge(30);
UserDTO dto = TestMapper.INSTANCE.toDTO(entity);
System.out.println(dto.getFullName()); // 输出: John
System.out.println(dto.getAge()); // 输出: 30
}
}
1.22 建议:新Map更新数据库的原子性
01.优化前
private void service_失业版本 (String orderNo) {
Order order = orderDao.queryOrderByOrderNo(orderNo);
// 省略业务代码,利用order代码完成某些业务
// 假定查询出的order的sumAmount是10元
order.set0rderStatus("1");
order.setUpdateTime(new Date());
// 根据订单号更新订单金额
orderDao.updateOrderByOrderNo(orderNo, order);
}
02.优化后
private void service_进化版本 (String orderNo) {
Order order = orderDao.queryOrderByOrderNo(orderNo);
// 省略业务代码,利用order代码完成某些业务
// 假定查询出的order的sumAmount是10元
// 一定要new一个专门用于更新的0rder对象
Order updateOrder = new Order();
updateOrder.set0rderStatus("1");
updateOrder.setUpdateTime(new Date());
// 根据订单号更新订单金额
orderDao.updateOrderByOrderNo(orderNo, updateOrder);
}
2 优化2
2.1 连接:Druid
01.介绍
a.数据库连接池
Druid 提供高性能的数据库连接池,可以管理和复用数据库连接,减少连接的创建和销毁开销,提高系统性能
b.监控
Druid内置了监控功能,可以通过内置的监控页面查看数据库连接的使用情况、SQL执行情况、耗时统计等。这对于实时监控数据库的性能和资源使用非常有帮助
c.防御SQL注入
Druid提供 SQL解析功能,可以识别并防御常见的SQL注入攻击,保障系统的安全性
d.性能优化
Druid可以分析SQL查询的性能,帮助开发者找出慢查询、高耗时的SQL语句,从而进行性能优化
e.扩展性
Druid支持定制插件,开发者可以根据实际需求自定义插件,添加一些额外的功能
f.连接池监控和统计
可以监控活跃连接数、空闲连接数、创建连接数、销毁连接数等连接池的信息,从而更好地管理连接资源
g.SQL性能统计
可以查看每个SQL查询的执行时间、执行次数、返回行数等统计信息,帮助开发者定位性能瓶颈
h.数据库访问频率统计
可以统计不同SQL的访问频率,帮助开发者了解哪些SQL查询被频繁访问
i.SQL执行异常监控
可以监控SQL执行过程中的异常情况,帮助开发者及时发现和解决问题
j.动态数据源支持
Druid支持多数据源的动态切换,可以在运行时切换不同的数据源
02.使用
a.添加依赖
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>druid-spring-boot-starter</artifactId>
<version>1.2.6</version> <!-- 版本 -->
</dependency>
b.配置数据源
spring:
datasource:
url: jdbc:mysql://localhost:3306/mydb
username: myuser
password: mypassword
driver-class-name: com.mysql.cj.jdbc.Driver
c.配置 Druid 监控和过滤器
package com.example.config;
import com.alibaba.druid.pool.DruidDataSource;
import com.alibaba.druid.support.http.StatViewServlet;
import com.alibaba.druid.support.http.WebStatFilter;
import org.springframework.boot.context.properties.ConfigurationProperties;
import org.springframework.boot.web.servlet.FilterRegistrationBean;
import org.springframework.boot.web.servlet.ServletRegistrationBean;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
@Configuration
public class DruidConfig {
// 配置数据源,将数据源配置属性绑定到 DruidDataSource Bean
@ConfigurationProperties(prefix = "spring.datasource")
@Bean
public DruidDataSource druidDataSource() {
return new DruidDataSource();
}
// 配置 Druid 监控的 Servlet
@Bean
public ServletRegistrationBean<StatViewServlet> statViewServlet() {
ServletRegistrationBean<StatViewServlet> servletRegistrationBean =
new ServletRegistrationBean<>(new StatViewServlet(), "/druid/*");
// 设置监控页面的配置参数
servletRegistrationBean.addInitParameter("allow", "127.0.0.1"); // 允许访问的 IP
servletRegistrationBean.addInitParameter("deny", "127.0.0.2"); // 拒绝访问的 IP
servletRegistrationBean.addInitParameter("loginUsername", "admin"); // 登录用户名
servletRegistrationBean.addInitParameter("loginPassword", "password"); // 登录密码
servletRegistrationBean.addInitParameter("resetEnable", "false"); // 是否允许重置数据
return servletRegistrationBean;
}
// 配置 Druid 过滤器
@Bean
public FilterRegistrationBean<WebStatFilter> statFilter() {
FilterRegistrationBean<WebStatFilter> filterRegistrationBean =
new FilterRegistrationBean<>(new WebStatFilter());
// 配置过滤规则
filterRegistrationBean.addUrlPatterns("/*");
filterRegistrationBean.addInitParameter("exclusions", "*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*");
return filterRegistrationBean;
}
}
d.启动应用程序
当应用程序启动时,Spring Boot 会自动初始化配置的数据源和 Druid 监控功能
e.访问监控页面
打开浏览器,访问配置的 Druid 监控页面路径,例如 http://localhost:8080/druid,输入配置的登录用户名和密码即可进入监控页面
2.2 释放:Cleaner
01.Cleaner定义
Cleaner是Java提供的一种资源释放机制,用于在对象不再被引用时执行清理操作
它通过注册清理任务来释放资源,而不是依赖于垃圾收集器调用finalize方法
02.Cleaner原理
Cleaner通过注册一个清理任务(Runnable),当对象被垃圾收集器回收时,自动执行该任务
它使用PhantomReference来跟踪对象的生命周期,并在对象被回收后执行清理任务
03.常用API
a.Cleaner.create()
创建一个新的Cleaner实例
b.Cleaner.register(Object obj, Runnable action)
注册一个清理任务,当obj被回收时执行action
c.Cleaner.Cleanable
表示一个可清理的对象,提供clean()方法用于手动触发清理
04.使用步骤
a.创建Cleaner实例
使用Cleaner.create()创建一个Cleaner对象
b.注册清理任务
使用Cleaner.register()方法为需要清理的对象注册一个清理任务
c.执行清理任务
当对象被垃圾收集器回收时,自动执行注册的清理任务
05.场景及代码示例
a.场景1:文件资源清理
在FileResource类中使用Cleaner来管理FileWriter的资源释放
当FileResource对象被回收时,自动关闭FileWriter
-----------------------------------------------------------------------------------------------------
import java.io.File;
import java.io.FileWriter;
import java.io.IOException;
import java.lang.ref.Cleaner;
public class FileResource {
private static final Cleaner cleaner = Cleaner.create();
private final FileWriter writer;
private final Cleaner.Cleanable cleanable;
public FileResource(String filePath) throws IOException {
this.writer = new FileWriter(new File(filePath));
this.cleanable = cleaner.register(this, () -> {
try {
writer.close();
System.out.println("FileWriter closed.");
} catch (IOException e) {
e.printStackTrace();
}
});
}
public void write(String data) throws IOException {
writer.write(data);
}
public void close() {
cleanable.clean();
}
public static void main(String[] args) throws IOException {
FileResource resource = new FileResource("example.txt");
resource.write("Hello, Cleaner!");
resource.close(); // Manually trigger cleanup
}
}
b.场景2:数据库连接清理
在DatabaseResource类中使用Cleaner来管理数据库连接的资源释放
当DatabaseResource对象被回收时,自动关闭数据库连接
-----------------------------------------------------------------------------------------------------
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.SQLException;
import java.lang.ref.Cleaner;
public class DatabaseResource {
private static final Cleaner cleaner = Cleaner.create();
private final Connection connection;
private final Cleaner.Cleanable cleanable;
public DatabaseResource(String url, String user, String password) throws SQLException {
this.connection = DriverManager.getConnection(url, user, password);
this.cleanable = cleaner.register(this, () -> {
try {
connection.close();
System.out.println("Connection closed.");
} catch (SQLException e) {
e.printStackTrace();
}
});
}
public void close() {
cleanable.clean();
}
public static void main(String[] args) throws SQLException {
DatabaseResource resource = new DatabaseResource("jdbc:mysql://localhost:3306/mydb", "user", "password");
resource.close(); // Manually trigger cleanup
}
}
2.3 校验:Validation
00.注解
a.属性
@NotNull 验证属性值不为 null
@Null 验证属性值必须为 null
@AssertTrue 验证属性值必须为 true
@AssertFalse 验证属性值必须为 false
@Min(value) 验证数值必须大于等于指定的最小值
@Max(value) 验证数值必须小于等于指定的最大值
@DecimalMin(value) 验证数值必须大于等于指定的最小值(支持小数)
@DecimalMax(value) 验证数值必须小于等于指定的最大值(支持小数)
@Size(min, max) 验证元素的大小是否在指定范围内
@Digits(integer, fraction) 验证数值的整数位数和小数位数是否在指定范围内
@Past 验证日期必须是过去的时间
@PastOrPresent 验证日期必须是过去或现在的时间
@Future 验证日期必须是未来的时间
@FutureOrPresent 验证日期必须是未来或现在的时间
@Pattern(regexp) 验证字符串是否匹配指定的正则表达式
@Email 验证字符串是否为有效的电子邮件地址
@NotEmpty 验证字符串、集合、地图或数组不为空(长度不为0)
@NotBlank 验证字符串必须非空且包含至少一个非空白字符
@Positive 验证数值为正数
@PositiveOrZero 验证数值为正数或零
@Negative 验证数值为负数
@NegativeOrZero 验证数值为负数或零
b.方法
@Valid 用于方法参数或返回值,触发级联验证。通常用于验证复杂对象的嵌套属性
c.类
@ScriptAssert 使用自定义脚本验证类的多个属性之间的关系
@ClassLevelConstraint 自定义类级别的约束注解
d.参数
@NotNull 验证方法参数不为 null
@Valid 用于方法参数,触发级联验证
e.构造函数级别注解
@NotNull 验证构造函数参数不为 null
@Valid 用于构造函数参数,触发级联验证
00.@Validated、@Valid
a.@Valid
标准JSR-303规范的标记型注解,用来标记验证属性和方法返回值,进行级联和递归校验
相比于@Validated,可以用在字段级别约束,用来表示级联校验
b.@Validated
Spring的注解,是标准JSR-303的一个变种(补充),提供了一个分组功能,可以在入参验证时,根据不同的分组采用不同的验证机制
在Controller中校验方法参数时,使用@Valid和@Validated并无特殊差异(若不需要分组校验的话)
相比于@Validated,@Valid可以用在字段级别约束,用来表示级联校验
相比与@Valid,@Validated可以用于提供分组功能
在非Controller组件中校验方法参数时,@Valid和@Validated必须配合使用
其中@Validated标记组件类,@Valid标记方法参数,如果方法参数是平铺参数,那么只需要用@Validated标记类组件就行了
c.共同作用
开启Spring自动参数校验
@Valid作为类注解只能标记Controller组件
而@Validated可以标记除Controller组件的其他组件比如@Service
d.注解位置
@Validated:用在类、方法和方法参数上,但不能用于成员属性
@Valid:可以用在方法、构造函数、方法参数和成员属性上
e.分组
@Validated:支持分组验证,可以更细致地控制验证过
@Valid:主要支持标准的Bean验证功能,不支持分组验证
f.嵌套验证
@Validated:不支持嵌套验证
@Valid:支持嵌套验证,可以嵌套验证对象内部的属性
01.依赖
a.web包含hibernate-validator
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
b.单独引入
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-validation</artifactId>
</dependency>
02.requestBody参数校验
a.需求
POST、PUT请求一般会使用requestBody传递参数,这种情况下,后端使用DTO对象进行接收
b.方法1:DTO
a.说明
只要给DTO对象加上@Validated注解就能实现自动参数校验
比如,有一个保存User的接口,要求userName长度是2-10,account和password字段长度是6-20
b.代码
@Data
public class UserDTO {
private Long userId;
@NotNull
@Length(min = 2, max = 10)
private String userName;
@NotNull
@Length(min = 6, max = 20)
private String account;
//每个注解对应不同的校验规则,并可制定校验失败后的信息:
@NotNull(message = "用户密码不能为空")
@Length(min = 6, max = 20)
private String password;
}
c.方法2:方法参数
a.说明
在方法参数上声明校验注解
如果你的验证实体前的注解是@RequestBody的话,无论你前端页面的数据再怎么完整,这个对象都是空的
后台会出现这个错误:Content type 'application/x-www-form-urlencoded;charset=UTF-8' not supported
b.代码
@PostMapping("/save")
public Result saveUser(@RequestBody @Validated UserDTO userDTO) {
// 校验通过,才会执行业务逻辑处理
return Result.ok();
}
03.requestParam/PathVariable参数校验
a.说明
GET请求一般会使用requestParam/PathVariable传参。如果参数比较多(比如超过6个),还是推荐使用DTO对象接收
否则,推荐将一个个参数平铺到方法入参中。在这种情况下,必须在Controller类上标注@Validated注解
并在入参上声明约束注解(如@Min等)。如果校验失败,会抛出ConstraintViolationException异常
b.代码
@RequestMapping("/api/user")
@RestController
@Validated
public class UserController {
// 路径变量
@GetMapping("{userId}")
public Result detail(@PathVariable("userId") @Min(10000000000000000L) Long userId) {
// 校验通过,才会执行业务逻辑处理
UserDTO userDTO = new UserDTO();
userDTO.setUserId(userId);
userDTO.setAccount("11111111111111111");
userDTO.setUserName("xixi");
userDTO.setAccount("11111111111111111");
return Result.ok(userDTO);
}
// 查询参数
@GetMapping("getByAccount")
public Result getByAccount(@Length(min = 6, max = 20) @NotNull String account) {
// 校验通过,才会执行业务逻辑处理
UserDTO userDTO = new UserDTO();
userDTO.setUserId(10000000000000003L);
userDTO.setAccount(account);
userDTO.setUserName("hello");
userDTO.setAccount("11111111111111111");
return Result.ok(userDTO);
}
}
04.全局统一异常处理
a.说明
如果校验失败,会抛出MethodArgumentNotValidException或者ConstraintViolationException异常
在实际项目开发中,通常会用统一异常处理来返回一个更友好的提示
比如我们系统要求无论发送什么异常,http的状态码必须返回对应业务码,由业务码去区分系统的异常情况
b.代码
import java.util.List;
import org.springframework.validation.BindException;
import org.springframework.validation.BindingResult;
import org.springframework.validation.FieldError;
import org.springframework.web.bind.MethodArgumentNotValidException;
import org.springframework.web.bind.annotation.ExceptionHandler;
import org.springframework.web.bind.annotation.RestControllerAdvice;
@RestControllerAdvice
public class CommonExceptionHandler {
//处理请求参数格式错误 @RequestBody上validate失败后抛出的异常是MethodArgumentNotValidException异常。
@ExceptionHandler({MethodArgumentNotValidException.class})
public Result handleMethodArgumentNotValidException(MethodArgumentNotValidException ex) {
BindingResult bindingResult = ex.getBindingResult();
StringBuilder sb = new StringBuilder("校验失败:");
for (FieldError fieldError : bindingResult.getFieldErrors()) {
sb.append(fieldError.getField()).append(":").append(fieldError.getDefaultMessage()).append(", ");
}
String msg = sb.toString();
return Result.fail(BusinessCode.参数校验失败, msg);
}
//处理请求参数格式错误 @RequestParam上validate失败后抛出的异常是javax.validation.ConstraintViolationException
@ExceptionHandler({ConstraintViolationException.class})
public Result handleConstraintViolationException(ConstraintViolationException ex) {
return Result.fail(BusinessCode.参数校验失败, ex.getMessage());
}
}
05.自定义邮箱校验
a.说明
通过实现 javax.validation.Constraint 自定义一个校验注解
b.自定义校验注解
package com.pilot.meterage.web.utils.validation.annotation;
import com.pilot.meterage.web.utils.validation.constraint.EmailValidator;
import javax.validation.Constraint;
import javax.validation.Payload;
import java.lang.annotation.ElementType;
import java.lang.annotation.Retention;
import java.lang.annotation.RetentionPolicy;
import java.lang.annotation.Target;
/**
* 自定义邮箱校验注解
*
* @author yangp
* @version 1.0
* @date 2024/11/16 10:00
*/
@Constraint(validatedBy = EmailValidator.class) // 指定校验器
@Target({ElementType.FIELD, ElementType.METHOD, ElementType.PARAMETER}) // 适用范围
@Retention(RetentionPolicy.RUNTIME) // 注解保留时间
public @interface ValidEmail {
String message() default "邮箱格式不正确";
Class<?>[] groups() default {};
Class<? extends Payload>[] payload() default {};
}
c.自定义邮箱校验器
package com.pilot.meterage.web.utils.validation.constraint;
import com.pilot.meterage.web.utils.validation.annotation.ValidEmail;
import javax.validation.ConstraintValidator;
import javax.validation.ConstraintValidatorContext;
import java.util.regex.Pattern;
/**
* 自定义邮箱校验器
*
* @author yangp
* @version 1.0
* @date 2024/11/16 10:00
*/
public class EmailValidator implements ConstraintValidator<ValidEmail, String> {
/**
* 定义邮箱格式的正则表达式
*/
private static final String EMAIL_REGEX = "^[a-zA-Z0-9_.-]+@[a-zA-Z0-9-]+(\\.[a-zA-Z]{2,6})+$";
private static final Pattern EMAIL_PATTERN = Pattern.compile(EMAIL_REGEX);
@Override
public boolean isValid(String email, ConstraintValidatorContext context) {
// 空值时的校验逻辑(可按需求调整) 空值视为无效
if (email == null || email.trim().isEmpty()) {
return false;
}
// 匹配正则表达式
return EMAIL_PATTERN.matcher(email).matches();
}
}
d.在实体类中使用注解
public class Tenant {
@ValidEmail(message = "请输入有效的邮箱地址")
private String email;
// Getter 和 Setter
public String getEmail() {
return email;
}
public void setEmail(String email) {
this.email = email;
}
}
e.测试验证
import jakarta.validation.ConstraintViolation;
import jakarta.validation.Validation;
import jakarta.validation.Validator;
import jakarta.validation.ValidatorFactory;
import java.util.Set;
public class Main {
public static void main(String[] args) {
// 创建 Validator 工厂
ValidatorFactory factory = Validation.buildDefaultValidatorFactory();
Validator validator = factory.getValidator();
// 创建待校验对象
Tenant tenant = new Tenant();
tenant.setEmail("invalid_email.com"); // 测试用的无效邮箱
// 执行校验
Set<ConstraintViolation<Tenant>> violations = validator.validate(tenant);
// 输出校验结果
if (!violations.isEmpty()) {
for (ConstraintViolation<Tenant> violation : violations) {
System.out.println(violation.getMessage());
}
} else {
System.out.println("邮箱验证通过!");
}
}
}
f.运行结果
a.测试用例1
输入:tenant.setEmail("[email protected]");
结果:邮箱验证通过!
b.测试用例2
输入:tenant.setEmail("invalid_email.com");
结果:请输入有效的邮箱地址
c.测试用例3
输入:tenant.setEmail("123@123");
结果:请输入有效的邮箱地址
2.4 请求:WebClient
01.Spring WebClient概述
a.定义
WebClient 是一个非阻塞的、响应式的 HTTP 客户端,支持同步和异步请求处理,适用于构建反应式应用程序
b.原理
WebClient 基于 Reactor 框架,利用其提供的 Mono 和 Flux 来处理异步数据流
它通过非阻塞 I/O 和反应式编程模型,能够高效地处理大量并发请求
02.常用API
a.创建 WebClient 实例
WebClient.create():创建一个默认的 WebClient 实例
WebClient.builder():使用构建器模式创建一个自定义配置的 WebClient 实例
b.发送请求
get()、post()、put()、delete():用于指定 HTTP 方法
uri():设置请求的 URI
retrieve():执行请求并获取响应
bodyToMono()、bodyToFlux():将响应体转换为 Mono 或 Flux
03.使用步骤
a.创建 WebClient 实例
使用 WebClient.create() 创建一个简单的实例
或者使用 WebClient.builder() 进行自定义配置
b.构建请求
使用 get()、post() 等方法指定请求类型
使用 uri() 设置请求的目标地址和参数
c.发送请求并处理响应
使用 retrieve() 发送请求
使用 bodyToMono() 或 bodyToFlux() 处理响应数据
04.每个场景对应的代码示例
a.简单的 GET 请求
WebClient webClient = WebClient.create("https://api.example.com");
Mono<String> response = webClient.get()
.uri("/data")
.retrieve()
.bodyToMono(String.class);
response.subscribe(System.out::println);
b.POST 请求发送 JSON 数据
WebClient webClient = WebClient.create("https://api.example.com");
Mono<String> response = webClient.post()
.uri("/submit")
.header(HttpHeaders.CONTENT_TYPE, MediaType.APPLICATION_JSON_VALUE)
.bodyValue(new MyRequestObject("value1", "value2"))
.retrieve()
.bodyToMono(String.class);
response.subscribe(System.out::println);
c.使用 WebClient.Builder 自定义配置
WebClient webClient = WebClient.builder()
.baseUrl("https://api.example.com")
.defaultHeader(HttpHeaders.CONTENT_TYPE, MediaType.APPLICATION_JSON_VALUE)
.build();
Mono<String> response = webClient.get()
.uri("/data")
.retrieve()
.bodyToMono(String.class);
response.subscribe(System.out::println);
2.5 请求:RedisTemplate
00.汇总
a.分类
RedisTemplate:原始
RedisClient:HTTP请求
RedisUtil:增删改查
b.RedisTemplate
a.系统中没有自定义创建
Bean 名称为restTemplate,会自动创建默认的 restTemplate
b.自动会默认创建两个Bean
SpringBoot默认创建 RedisTemplate、StringRedisTemplate
默认创建的 RedisTemplate,实际是 RedisTemplate<Object, Object>
但如果使用 RedisTemplate<String, Object>就会报错
b.使用@Autowired注入restTemplate
会根据范型类别来选择
01.RedisTemplate:原始
a.概述
a.定义
RedisTemplate 是 Spring Data Redis 提供的一个核心类,用于在 Spring 应用中与 Redis 进行交互
它封装了 Redis 的各种操作,使得开发者可以更方便地进行数据存储和检索
b.原理
RedisTemplate 基于 Spring 的模板设计模式,提供了一套简化的 API 来执行 Redis 命令
它通过底层的 Redis 连接工厂(RedisConnectionFactory)来管理与 Redis 服务器的连接
b.常用 API
a.基本操作
opsForValue():用于操作字符串类型的数据
opsForHash():用于操作哈希类型的数据
opsForList():用于操作列表类型的数据
opsForSet():用于操作集合类型的数据
opsForZSet():用于操作有序集合类型的数据
b.通用操作
delete():删除指定的键
hasKey():检查键是否存在
expire():设置键的过期时间
c.使用步骤
a.配置 RedisTemplate
配置 Redis 连接工厂(如 LettuceConnectionFactory 或 JedisConnectionFactory)
创建并配置 RedisTemplate 实例
b.使用 RedisTemplate 进行操作
使用 opsForValue()、opsForHash() 等方法获取特定数据类型的操作接口
调用具体的操作方法进行数据存储和检索
d.每个场景对应的代码示例
a.配置 RedisTemplate
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.connection.lettuce.LettuceConnectionFactory;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.serializer.StringRedisSerializer;
@Configuration
public class RedisConfig {
@Bean
public LettuceConnectionFactory redisConnectionFactory() {
return new LettuceConnectionFactory();
}
@Bean
public RedisTemplate<String, Object> redisTemplate() {
RedisTemplate<String, Object> template = new RedisTemplate<>();
template.setConnectionFactory(redisConnectionFactory());
template.setKeySerializer(new StringRedisSerializer());
template.setValueSerializer(new StringRedisSerializer());
return template;
}
}
b.使用 RedisTemplate 操作字符串
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.stereotype.Service;
@Service
public class RedisService {
@Autowired
private RedisTemplate<String, Object> redisTemplate;
public void setStringValue(String key, String value) {
redisTemplate.opsForValue().set(key, value);
}
public String getStringValue(String key) {
return (String) redisTemplate.opsForValue().get(key);
}
}
c.使用 RedisTemplate 操作哈希
public void setHashValue(String key, String hashKey, String value) {
redisTemplate.opsForHash().put(key, hashKey, value);
}
public String getHashValue(String key, String hashKey) {
return (String) redisTemplate.opsForHash().get(key, hashKey);
}
02.RedisClient:HTTP请求
a.依赖
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>fastjson</artifactId>
<version>2.0.32</version>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
b.RedisTemplate序列化
import com.alibaba.fastjson.support.spring.FastJsonRedisSerializer;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.connection.RedisConnectionFactory;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.serializer.StringRedisSerializer;
@Configuration
public class RedisTemplateConfigurer {
/**
* 重写redis序列化方式,使用json方式
* 使用fastJson,避免出现双引号
*
* @param redisConnectionFactory
* @return
*/
@Bean
public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory redisConnectionFactory) {
RedisTemplate<String, Object> redisTemplate = new RedisTemplate<>();
FastJsonRedisSerializer<Object> fastJson = new FastJsonRedisSerializer<>(Object.class);
redisTemplate.setDefaultSerializer(fastJson);
redisTemplate.setConnectionFactory(redisConnectionFactory);
StringRedisSerializer serializer = new StringRedisSerializer();
redisTemplate.setKeySerializer(serializer);
redisTemplate.setHashKeySerializer(serializer);
redisTemplate.afterPropertiesSet();
return redisTemplate;
}
}
c.RedisClient工具
import com.alibaba.fastjson2.JSONArray;
import com.alibaba.fastjson2.JSONObject;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.stereotype.Component;
import java.util.List;
import java.util.Objects;
import java.util.function.Consumer;
import java.util.function.Function;
@Component
public class SpringRedisClient {
/**
* 字符串结构-opsForValue
* hash结构-opsForValue
* cluster结构-opsForCluster
* geo结构-opsForGeo
* list结构-opsForList
* set结构-opsForSet
* zSet结构-opsForZSet
*/
private final RedisTemplate<String, Object> redisTemplate;
public SpringRedisClient(RedisTemplate<String, Object> redisTemplate) {
this.redisTemplate = redisTemplate;
}
public Builder builder() {
return new Builder(this.redisTemplate);
}
public static class Builder {
private final Source source;
private Object value;
public Builder(RedisTemplate<String, Object> redisTemplate) {
this.source = new Source(redisTemplate);
}
public Builder apply(Function<Source, Object> function) {
this.value = function.apply(this.source);
return this;
}
public Builder keys(Object... keys) {
StringBuilder builder = new StringBuilder();
for (Object key : keys) {
builder.append(key)
.append(":");
}
builder.deleteCharAt(builder.length() - 1);
this.source.key = builder.toString();
return this;
}
public void build(Consumer<Source> consumer) {
consumer.accept(this.source);
}
public Result build() {
return new Result(value);
}
}
public static class Source {
private String key;
private final RedisTemplate<String, Object> redisTemplate;
public Source(RedisTemplate<String, Object> redisTemplate) {
this.redisTemplate = redisTemplate;
}
public RedisTemplate<String, Object> redis() {
return redisTemplate;
}
public String key() {
return key;
}
}
public static class Result {
private final Object value;
public Result(Object value) {
this.value = value;
}
public boolean isNull() {
return Objects.isNull(this.value);
}
public boolean nonNull() {
return Objects.nonNull(this.value);
}
public String toJson() {
return isNull() ? null : this.value.toString();
}
public Boolean toBoolean() {
return isNull() ? null : Boolean.valueOf(this.value.toString());
}
public Integer toInteger() {
return isNull() ? null : Integer.valueOf(this.value.toString());
}
public Long toLong() {
return isNull() ? null : Long.valueOf(this.value.toString());
}
public <T> T toBean(Class<T> tClass) {
return isNull() ? null : JSONObject.parseObject(JSONObject.toJSONString(this.value), tClass);
}
public <T> List<T> toList(Class<T> tClass) {
return isNull() ? null : JSONArray.parseArray(JSONObject.toJSONString(this.value), tClass);
}
}
}
d.使用方式
使用方式分为两种
一种是调用apply()方法,有响应值的接收,可转化成对应的实体类
另外一种是build()方法,一般是作为设置key的有效期等,无响应值返回
-----------------------------------------------------------------------------------------------------
import com.alibaba.fastjson2.JSONObject;
import lombok.extern.slf4j.Slf4j;
import org.junit.jupiter.api.Test;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.test.context.SpringBootTest;
import java.util.Objects;
import java.util.concurrent.TimeUnit;
@Slf4j
@SpringBootTest
public class LinkApiServerTest {
@Autowired
private SpringRedisClient redisClient;
/**
* 有响应值
*/
@Test
void test01() {
JSONObject result = redisClient.builder()
.keys("a", "b", "c", "d")
.apply(source -> {
if (Objects.equals(Boolean.TRUE, source.redis().hasKey(source.key()))) {
return source.redis().opsForValue().get(source.key());
}
return null;
}).build().toBean(JSONObject.class);
log.info("获取结果 {}", result);
}
/**
* 无响应值
*/
@Test
void test02() {
redisClient.builder()
.keys("a", "b", "c", "d")
.build(source -> {
source.redis().opsForValue().set(source.key(), "value", 10, TimeUnit.SECONDS);
});
}
}
03.RedisUtil:增删改查
a.依赖
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
b.application.yml
spring:
data:
redis:
host: 127.0.0.1
port: 6379
database: 0
timeout: 1800s # 使用时间格式化
password:
lettuce:
pool:
max-active: 20 # 最大连接数
max-wait: -1 # 最大阻塞等待时间(负数表示没限制)
max-idle: 5 # 最大空闲
min-idle: 0 # 最小空闲
c.RedisConfig配置类:自定义RedisTemplate和RedisCacheManager
@Configuration
@EnableCaching
public class RedisConfig {
// 配置 RedisTemplate,用于操作 Redis 数据库
@Bean
public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory factory) {
// 创建 RedisTemplate 对象,用于执行 Redis 操作
RedisTemplate<String, Object> redisTemplate = new RedisTemplate<>();
// 设置连接工厂,用于与 Redis 建立连接
redisTemplate.setConnectionFactory(factory);
// 设置 key 的序列化器,使用 StringRedisSerializer 将 key 序列化为字符串
redisTemplate.setKeySerializer(new StringRedisSerializer());
// 设置 value 的序列化器,使用 GenericJackson2JsonRedisSerializer 将对象序列化为 JSON
redisTemplate.setValueSerializer(new GenericJackson2JsonRedisSerializer());
// 设置 hash key 的序列化器,使用 StringRedisSerializer 序列化 hash 的 key
redisTemplate.setHashKeySerializer(new StringRedisSerializer());
// 设置 hash value 的序列化器,使用 Jackson2JsonRedisSerializer 将 hash 值序列化为 JSON
redisTemplate.setHashValueSerializer(new Jackson2JsonRedisSerializer<Object>(Object.class));
// 返回配置好的 RedisTemplate
return redisTemplate;
}
// 配置 RedisCacheManager,用于管理 Redis 缓存
@Bean
public RedisCacheManager redisCacheManager(RedisTemplate redisTemplate) {
// 创建 RedisCacheWriter,nonLockingRedisCacheWriter 表示不使用锁机制进行缓存操作
RedisCacheWriter redisCacheWriter = RedisCacheWriter.nonLockingRedisCacheWriter(redisTemplate.getConnectionFactory());
// 配置 RedisCacheConfiguration,指定缓存值的序列化方式,使用 RedisTemplate 中配置的 ValueSerializer 进行序列化
RedisCacheConfiguration redisCacheConfiguration = RedisCacheConfiguration.defaultCacheConfig()
.serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer(redisTemplate.getValueSerializer()));
// 返回配置好的 RedisCacheManager
return new RedisCacheManager(redisCacheWriter, redisCacheConfiguration);
}
}
-----------------------------------------------------------------------------------------------------
@Configuration 注解:用于标记这是一个配置类,Spring 会在应用启动时加载该类中的配置,生成相关的 Bean 并将其管理。用于自定义 Redis 相关的 Bean
@EnableCaching 注解:启用 Spring 的缓存支持。通过这个注解,Spring 将使用缓存机制,并根据配置的缓存管理器管理缓存
RedisTemplate:用于执行 Redis 操作。自定义了键(key)使用字符串序列化,值(value)使用 JSON 序列化
RedisCacheManager:管理缓存配置。缓存的值也通过 JSON 序列化存储,便于处理复杂数据
d.RedisUtil
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.stereotype.Component;
import java.util.Arrays;
import java.util.concurrent.TimeUnit;
/**
* Redis工具类
*
* @author luoxiaodou
*/
@Component
public class RedisUtil {
private static final Logger logger = LoggerFactory.getLogger(RedisUtil.class);
private final RedisTemplate<String, Object> redisTemplate;
/**
* 在 Spring Boot 中,RedisTemplate 是由 Spring 自动配置的。
* Spring Boot 的 spring-boot-starter-data-redis 会自动根据 application.yml
* 或 application.properties 中的 Redis 配置生成
* RedisTemplate 实例,并将其作为一个 Bean 注入到 Spring 容器中。
*
* 从 Spring Framework 4.3 开始,如果类只有一个构造函数,Spring 会自动推断并使用这个构造函数进行依赖注入,无需显式地使用 @Autowired 注解。
* 由于 RedisUtil 类中只有一个构造函数,因此 Spring 自动会将 RedisTemplate<String, Object> 注入到 RedisUtil 中。
*
* @param redisTemplate
*/
@Autowired
public RedisUtil(RedisTemplate<String, Object> redisTemplate) {
this.redisTemplate = redisTemplate;
}
/**
* 设置缓存失效时间
*
* @param key 键
* @param time 时间(秒)
*/
public boolean expire(String key, long time) {
if (time > 0) {
return Boolean.TRUE.equals(redisTemplate.expire(key, time, TimeUnit.SECONDS));
}
return false;
}
/**
* 根据key 获取过期时间
*
* @param key 键 不能为null
* @return 时间(秒) 返回0代表为永久有效
*/
public long getExpire(String key) {
return redisTemplate.getExpire(key, TimeUnit.SECONDS);
}
/**
* 判断key是否存在
*
* @param key 键
* @return true 存在 false不存在
*/
public boolean hasKey(String key) {
return Boolean.TRUE.equals(redisTemplate.hasKey(key));
}
/**
* 删除缓存
*
* @param key 可以传一个值 或多个
*/
public void delete(String... key) {
if (key != null && key.length > 0) {
if (key.length == 1) {
redisTemplate.delete(key[0]);
} else {
redisTemplate.delete(Arrays.asList(key));
}
}
}
/**
* 获取普通缓存
*
* @param key 键
* @return 值
*/
public Object get(String key) {
return key == null ? null : redisTemplate.opsForValue()
.get(key);
}
/**
* 泛型方法 get:<T> 使得 get 方法可以返回不同类型的对象,clazz 参数是对象的类型信息,传入后可以将存储的值反序列化为相应类型。
* Redis 中的数据必须是通过 GenericJackson2JsonRedisSerializer 或类似的 JSON 序列化器存储的,确保可以成功反序列化。
*
* @param key
* @param clazz
* @param <T>
* @return
*/
public <T> T get(String key, Class<T> clazz) {
try {
Object value = redisTemplate.opsForValue()
.get(key);
if (value != null) {
// 自动转换成指定类型
return clazz.cast(value);
}
} catch (Exception e) {
logger.error(e.getMessage(), e);
}
return null;
}
/**
* 普通缓存放入
*
* @param key 键
* @param value 值
* @return true成功 false失败
*/
public boolean set(String key, Object value) {
try {
redisTemplate.opsForValue()
.set(key, value);
return true;
} catch (Exception e) {
logger.error(e.getMessage(), e);
return false;
}
}
/**
* 普通缓存放入并设置时间
*
* @param key 键
* @param value 值
* @param time 时间(秒) time要大于0 如果time小于等于0 将设置无限期
* @return true成功 false 失败
*/
public boolean set(String key, Object value, long time) {
try {
if (time > 0) {
redisTemplate.opsForValue()
.set(key, value, time, TimeUnit.SECONDS);
} else {
set(key, value);
}
return true;
} catch (Exception e) {
logger.error(e.getMessage(), e);
return false;
}
}
}
-----------------------------------------------------------------------------------------------------
expire:设置缓存的过期时间
getExpire:获取缓存项的过期时间
hasKey:判断缓存是否存在
delete:删除缓存
get:获取缓存中的值
set:设置缓存值,可选指定过期时间
2.6 缓存:SpringCache
01.中间件:9种
none:没有缓存
simple:用内存作为缓存
redis:用Redis作为缓存
infinispan:分布式的集群缓存系统
couchbase:CouchBase是一款非关系型JSON文档数据库
generic:由泛型机制和static组合实现的泛型缓存机制
jcache:JCache作为缓存,它是JSR107规范中提到的缓存规范
caffeine:Caffeine是一种高性能的缓存库,基于Google Guava
hazelcast:一个高度可扩展的数据分发和集群平台,可用于实现分布式数据存储、数据缓存
02.API
@EnableCaching 开启缓存注解功能,通常加在启动类上
@Cacheable 在方法执行前先查询缓存中是否有数据,如果有数据,则直接返回缓存数据;如果没有缓存数据,调用方法并将方法返回值放到缓存中
@CachePut 将方法的返回值放到缓存中
@CacheEvict 将一条或多条数据从缓存中删除
@Caching 组合多个Cache注解使用
03.使用
a.依赖
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-cache</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
b.配置文件
spring:
redis:
host: localhost
port: 6379
password: myslayers
database: 2
c.启动类
@Slf4j
@EnableCaching //开启缓存注解功能
@SpringBootApplication
public class CacheDemoApplication {
public static void main(String[] args) {
SpringApplication.run(CacheDemoApplication.class,args);
log.info("项目启动成功...");
}
}
d.测试示例
@RestController
@RequestMapping("/admin/setmeal")
@Api(tags = "套餐相关接口")
@Slf4j
public class SetmealController {
@Autowired
private SetmealService setmealService;
/**
* 分页查询
*
* @param setmealPageQueryDTO
* @return
*/
@GetMapping("/page")
@ApiOperation("分页查询")
public Result<PageResult> page(SetmealPageQueryDTO setmealPageQueryDTO) {
PageResult pageResult = setmealService.pageQuery(setmealPageQueryDTO);
return Result.success(pageResult);
}
/**
* 根据id查询套餐
*
* @param id
* @return
*/
@GetMapping("/{id}")
@ApiOperation("根据id查询套餐")
public Result<SetmealVO> getById(@PathVariable Long id) {
SetmealVO setmealVO = setmealService.getByIdWithDish(id);
return Result.success(setmealVO);
}
/**
* 新增套餐
*
* @param setmealDTO
* @return
*/
@PostMapping
@ApiOperation("新增套餐")
@CacheEvict(cacheNames = "setmealCache",key = "#setmealDTO.categoryId") //key: setmealCache::100
public Result save(@RequestBody SetmealDTO setmealDTO) {
setmealService.saveWithDish(setmealDTO);
return Result.success();
}
/**
* 修改套餐
*
* @param setmealDTO
* @return
*/
@PutMapping
@ApiOperation("修改套餐")
@CacheEvict(cacheNames = "setmealCache",allEntries = true)
public Result update(@RequestBody SetmealDTO setmealDTO) {
setmealService.update(setmealDTO);
return Result.success();
}
/**
* 批量删除套餐
*
* @param ids
* @return
*/
@DeleteMapping
@ApiOperation("批量删除套餐")
@CacheEvict(cacheNames = "setmealCache",allEntries = true)
public Result delete(@RequestParam List<Long> ids) {
setmealService.deleteBatch(ids);
return Result.success();
}
/**
* 套餐起售停售
*
* @param status
* @param id
* @return
*/
@PostMapping("/status/{status}")
@ApiOperation("套餐起售停售")
@CacheEvict(cacheNames = "setmealCache",allEntries = true)
public Result startOrStop(@PathVariable Integer status, Long id) {
setmealService.startOrStop(status, id);
return Result.success();
}
}
2.7 状态:SpringStatemachine
00.汇总
if-else
switch-case
SpringStatemachine
01.if-else
a.说明
根据当前活动来控制音乐的播放状态,并执行相应的行为
b.代码
public class BasketballMusicStateMachineUsingIfElse {
private boolean isPlayingMusic;
public BasketballMusicStateMachineUsingIfElse() {
this.isPlayingMusic = false; // 初始状态为音乐未播放
}
public void playMusic() {
if (!isPlayingMusic) {
System.out.println("Music starts playing...");
isPlayingMusic = true;
}
}
public void stopMusic() {
if (isPlayingMusic) {
System.out.println("Music stops playing...");
isPlayingMusic = false;
}
}
public void performActivity(String activity) {
if ("basketball".equals(activity)) {
System.out.println("Music~");
playMusic(); // 打篮球时播放音乐
} else if ("sing_rap".equals(activity)) {
System.out.println("哎哟你干嘛!");
stopMusic(); // 唱跳Rap时停止音乐
} else {
System.out.println("Invalid activity!");
}
}
public static void main(String[] args) {
BasketballMusicStateMachineUsingIfElse stateMachine = new BasketballMusicStateMachineUsingIfElse();
// 测试状态机
stateMachine.performActivity("basketball"); // 打篮球,音乐开始播放
stateMachine.performActivity("sing_rap"); // 唱跳Rap,音乐停止播放
stateMachine.performActivity("basketball"); // 再次打篮球,音乐重新开始播放
}
}
02.switch-case
a.说明
根据不同的活动来控制音乐的播放状态,并执行相应的行为
b.代码
public class BasketballMusicStateMachineUsingSwitchCase {
private boolean isPlayingMusic;
public BasketballMusicStateMachineUsingSwitchCase() {
this.isPlayingMusic = false; // 初始状态为音乐未播放
}
public void playMusic() {
if (!isPlayingMusic) {
System.out.println("Music starts playing...");
isPlayingMusic = true;
}
}
public void stopMusic() {
if (isPlayingMusic) {
System.out.println("Music stops playing...");
isPlayingMusic = false;
}
}
public void performActivity(String activity) {
switch (activity) {
case "basketball":
System.out.println("Music ~");
playMusic(); // 打篮球时播放音乐
break;
case "sing_rap":
System.out.println("哎哟 你干嘛 ~");
stopMusic(); // 唱跳Rap时停止音乐
break;
default:
System.out.println("Invalid activity!");
}
}
public static void main(String[] args) {
BasketballMusicStateMachineUsingSwitchCase stateMachine = new BasketballMusicStateMachineUsingSwitchCase();
// 测试状态机
stateMachine.performActivity("basketball"); // 打篮球,音乐开始播放
stateMachine.performActivity("sing_rap"); // 唱跳Rap,音乐停止播放
stateMachine.performActivity("basketball"); // 再次打篮球,音乐重新开始播放
}
}
03.SpringStatemachine1
a.依赖
<dependency>
<groupId>org.springframework.statemachine</groupId>
<artifactId>spring-statemachine-core</artifactId>
<version>2.0.1.RELEASE</version>
</dependency>
b.定义状态和事件的枚举
public enum States {
IDLE, // 空闲状态
PLAYING_BB, // 打篮球状态
SINGING // 唱跳Rap状态
}
public enum Event {
START_BB_MUSIC, // 开始播放篮球音乐事件
STOP_BB_MUSIC // 停止篮球音乐事件
}
c.配置状态机
@Configuration
@EnableStateMachine
public class BasketballMusicStateMachineConfig extends EnumStateMachineConfigurerAdapter<States, Event> {
@Autowired
private BasketballMusicStateMachineEventListener eventListener;
@Override
public void configure(StateMachineConfigurationConfigurer<States, Event> config) throws Exception {
config
.withConfiguration()
.autoStartup(true)
.listener(eventListener); // 设置状态机事件监听器
}
@Override
public void configure(StateMachineStateConfigurer<States, Event> states) throws Exception {
states
.withStates()
.initial(States.IDLE)
.states(EnumSet.allOf(States.class));
}
@Override
public void configure(StateMachineTransitionConfigurer<States, Event> transitions) throws Exception {
transitions
.withExternal()
.source(States.IDLE).target(States.PLAYING_BB).event(Event.START_BB_MUSIC)
.and()
.withExternal()
.source(States.PLAYING_BB).target(States.SINGING).event(Event.STOP_BB_MUSIC)
.and()
.withExternal()
.source(States.SINGING).target(States.PLAYING_BB).event(Event.START_BB_MUSIC);
}
}
d.定义状态机事件监听器
@Component
public class BasketballMusicStateMachineEventListener extends StateMachineListenerAdapter<States, Event> {
@Override
public void stateChanged(State<States, Event> from, State<States, Event> to) {
if (from.getId() == States.IDLE && to.getId() == States.PLAYING_BB) {
System.out.println("开始打篮球,music 起");
} else if (from.getId() == States.PLAYING_BB && to.getId() == States.SINGING) {
System.out.println("唱跳,你干嘛");
} else if (from.getId() == States.SINGING && to.getId() == States.PLAYING_BB) {
System.out.println("继续打篮球,music 继续");
}
}
}
e.编写单元测试
@SpringBootTest
class ChatApplicationTests {
@Resource
private StateMachine<States, Event> stateMachine;
@Test
void contextLoads() {
//开始打球,music 起
stateMachine.sendEvent(Event.START_BB_MUSIC);
//开始唱跳,你干嘛
stateMachine.sendEvent(Event.STOP_BB_MUSIC);
//继续打球,music 继续
stateMachine.sendEvent(Event.START_BB_MUSIC);
}
}
04.SpringStatemachine2
a.准备工作
a.添加依赖
<dependency>
<groupId>org.springframework.statemachine</groupId>
<artifactId>spring-statemachine-core</artifactId>
<version>4.0.0</version>
</dependency>
b.定义订单状态
public enum OrderStatusEnum {
APPROVE_PENDING, // 待审核
APPROVE_ING, // 审核中
APPROVE_FAILED, // 审核失败
APPROVE_SUCCESS; // 审核成功
}
c.定义事件
public enum OrderEvent {
APPROVE_START, // 开始审核
APPROVE_SUCCESS,// 审核通过
APPROVE_FAILED; // 审核失败
}
d.配置类
@Configuration
@EnableStateMachine(name = "OrderStateMachine")
@Slf4j
public class OrderStateMachineConfig extends EnumStateMachineConfigurerAdapter<OrderStatusEnum, OrderEvent> {
@Resource
private OrderMapper orderMapper;
@Override
public void configure(StateMachineStateConfigurer<OrderStatusEnum, OrderEvent> states) throws Exception {
states.withStates()
.initial(OrderStatusEnum.APPROVE_PENDING) // 设置初始状态为[待审核]
.states(EnumSet.allOf(OrderStatusEnum.class));
}
@Override
public void configure(StateMachineTransitionConfigurer<OrderStatusEnum, OrderEvent> transitions) throws Exception {
transitions
.withExternal().source(OrderStatusEnum.APPROVE_PENDING).target(OrderStatusEnum.APPROVE_ING).event(OrderEvent.APPROVE_START)
.and()
.withExternal().source(OrderStatusEnum.APPROVE_ING).target(OrderStatusEnum.APPROVE_FAILED).event(OrderEvent.APPROVE_FAILED)
.and()
.withExternal().source(OrderStatusEnum.APPROVE_ING).target(OrderStatusEnum.APPROVE_SUCCESS).event(OrderEvent.APPROVE_SUCCESS);
}
@Bean
public DefaultStateMachinePersister persister() {
return new DefaultStateMachinePersister<>(new StateMachinePersist<OrderStatusEnum, OrderEvent, BizOrder>() {
@Override
public void write(StateMachineContext<OrderStatusEnum, OrderEvent> context, BizOrder order) throws Exception {
OrderStatusEnum orderStatus = context.getState();
log.info("订单状态持久化,订单ID:{},目标状态:{}", order.getId(), orderStatus);
orderMapper.updateOrderStatus(order.getId(), orderStatus);
}
@Override
public StateMachineContext<OrderStatusEnum, OrderEvent> read(BizOrder order) throws Exception {
log.info("恢复订单状态机状态");
return new DefaultStateMachineContext<>(order.getStatus(), null, null, null);
}
});
}
}
b.新建变更订单状态的服务
a.服务接口
public interface BizOrderStatusService {
void eventHandler(Long orderId, OrderEvent event);
}
b.服务实现
@Service
public class BizOrderStatusServiceImpl implements BizOrderStatusService {
@Resource
private OrderMapper orderMapper;
@Resource
private StateMachine<OrderStatusEnum, OrderEvent> orderStateMachine;
@Resource
private StateMachinePersister<OrderStatusEnum, OrderEvent, BizOrder> persister;
@Override
public void eventHandler(Long orderId, OrderEvent event) {
BizOrder order = orderMapper.getOrderById(orderId);
Assert.notNull(order, "订单不存在");
StateMachineParam param = new StateMachineParam();
param.setBizOrder(order);
Message message = MessageBuilder.withPayload(event).build();
if (!sendEvent(message, param)) {
throw new ApplicationBizException("订单状态流转异常");
}
}
private synchronized boolean sendEvent(Message<OrderEvent> message, StateMachineParam param) {
boolean result = false;
try {
orderStateMachine.start();
persister.restore(orderStateMachine, param.getBizOrder());
orderStateMachine.getExtendedState().getVariables().put("param", param);
result = orderStateMachine.sendEvent(message);
persister.persist(orderStateMachine, param.getBizOrder());
} catch (Exception e) {
e.printStackTrace();
} finally {
orderStateMachine.stop();
}
return result;
}
}
c.调用方法执行订单状态变更
a.控制器
@RestController
@RequiredArgsConstructor
public class ApproveController {
private final OrderStatusService orderStatusService;
@PostMapping("/start")
public void start(Long orderId) {
orderStatusService.eventHandler(orderId, OrderEvent.APPROVE_START);
}
@PostMapping("/approveSuccess")
public void approveSuccess(Long orderId) {
orderStatusService.eventHandler(orderId, OrderEvent.APPROVE_SUCCESS);
}
@PostMapping("/approveFailed")
public void approveFailed(Long orderId) {
orderStatusService.eventHandler(orderId, OrderEvent.APPROVE_FAILED);
}
}
d.扩展功能
a.新增放款事件
a.状态枚举新增
LOAN_SUCCESS, PARTIALLY_LOAN_SUCCESS;
b.事件枚举新增
LOAN;
c.状态转换事件关系优化
@Override
public void configure(StateMachineTransitionConfigurer<OrderStatusEnum, OrderEvent> transitions) throws Exception {
transitions
.withExternal().source(OrderStatusEnum.APPROVE_PENDING).target(OrderStatusEnum.APPROVE_ING).event(OrderEvent.APPROVE_START)
.and()
.withExternal().source(OrderStatusEnum.APPROVE_ING).target(OrderStatusEnum.APPROVE_FAILED).event(OrderEvent.APPROVE_FAILED)
.and()
.withExternal().source(OrderStatusEnum.APPROVE_ING).target(OrderStatusEnum.APPROVE_SUCCESS).event(OrderEvent.APPROVE_SUCCESS)
.and()
.withExternal().source(OrderStatusEnum.APPROVE_SUCCESS).target(OrderStatusEnum.LOAN_SUCCESS).event(OrderEvent.LOAN).guard(guardForLoanSuccessByLoan())
.and()
.withExternal().source(OrderStatusEnum.APPROVE_SUCCESS).target(OrderStatusEnum.PARTIALLY_LOAN_SUCCESS).event(OrderEvent.LOAN).guard(guardForPartiallyLoanSuccessByLoan());
}
d.条件判断实现
@Bean
public Guard<OrderStatusEnum, OrderEvent> guardForLoanSuccessByLoan() {
return context -> {
StateMachineParam param = (StateMachineParam) context.getExtendedState().getVariables().get("param");
BizOrder order = param.getBizOrder();
return order.getApplyAmount().compareTo(order.getLoanAmlunt) == 0;
};
}
@Bean
public Guard<OrderStatusEnum, OrderEvent> guardForPartiallyLoanSuccessByLoan() {
return context -> {
StateMachineParam param = (StateMachineParam) context.getExtendedState().getVariables().get("param");
BizOrder order = param.getBizOrder();
return order.getApplyAmount().compareTo(order.getLoanAmlunt) < 0;
};
}
2.8 注解:插入公共字段
00.思路
a.目标
在进行数据库操作(如插入或更新)时,通常需要为实体对象的某些字段自动赋值
插入操作(INSERT):createTime、createUser、updateTime、updateUser
更新操作(UPDATE):updateTime、updateUser
b.解决
a.定义自定义注解@AutoFill
用于标识需要自动填充公共字段的方法,并指定操作类型(INSERT 或 UPDATE)
b.定义枚举OperationType
明确操作类型,方便在切面中根据不同类型执行不同的填充逻辑
c.实现切面AutoFillAspect
a.切入点定义
拦截 com.sky.mapper 包下的所有方法,并且这些方法被 @AutoFill 注解标识
b.前置通知 @Before
在目标方法执行之前,自动为实体对象的公共字段赋值
c.获取注解参数
通过反射获取 @AutoFill 注解的 value 属性,以确定当前的操作类型(INSERT 或 UPDATE)
d.获取实体对象
假设被拦截的方法的第一个参数是需要操作的实体对象,通过 joinPoint.getArgs() 获取
e.赋值逻辑
插入操作(INSERT):为 createTime、createUser、updateTime、updateUser 四个字段赋值。更新操作(UPDATE):为 updateTime、updateUser 两个字段赋值
f.反射赋值
通过反射调用实体对象的 setter 方法,为相应字段赋值
d.在Mapper接口中使用注解
在执行插入或更新操作的方法上添加 @AutoFill 注解,指定相应的操作类型
01.自定义注解:@AutoFill
@Target(ElementType.METHOD)
@Retention(RetentionPolicy.RUNTIME)
public @interface AutoFill {
//数据库操作类型:UPDATE INSERT
OperationType value();
}
02.枚举:OperationType
public enum OperationType {
/**
* 更新操作
*/
UPDATE,
/**
* 插入操作
*/
INSERT
}
03.自定义切面:AutoFillAspect
@Aspect
@Component
@Slf4j
public class AutoFillAspect {
/**
* 切入点
*/
@Pointcut("execution(* com.sky.mapper.*.*(..)) && @annotation(com.sky.annotation.AutoFill)")
public void autoFillPointCut(){}
/**
* 前置通知,在通知中进行公共字段的赋值
*/
@Before("autoFillPointCut()")
public void autoFill(JoinPoint joinPoint){
log.info("开始进行公共字段自动填充...");
//获取到当前被拦截的方法上的数据库操作类型
MethodSignature signature = (MethodSignature) joinPoint.getSignature();//方法签名对象
AutoFill autoFill = signature.getMethod().getAnnotation(AutoFill.class);//获得方法上的注解对象
OperationType operationType = autoFill.value();//获得数据库操作类型
//获取到当前被拦截的方法的参数--实体对象
Object[] args = joinPoint.getArgs();
if(args == null || args.length == 0){
return;
}
Object entity = args[0];
//准备赋值的数据
LocalDateTime now = LocalDateTime.now();
Long currentId = BaseContext.getCurrentId();
//根据当前不同的操作类型,为对应的属性通过反射来赋值
if(operationType == OperationType.INSERT){
//为4个公共字段赋值
try {
Method setCreateTime = entity.getClass().getDeclaredMethod(AutoFillConstant.SET_CREATE_TIME, LocalDateTime.class);
Method setCreateUser = entity.getClass().getDeclaredMethod(AutoFillConstant.SET_CREATE_USER, Long.class);
Method setUpdateTime = entity.getClass().getDeclaredMethod(AutoFillConstant.SET_UPDATE_TIME, LocalDateTime.class);
Method setUpdateUser = entity.getClass().getDeclaredMethod(AutoFillConstant.SET_UPDATE_USER, Long.class);
//通过反射为对象属性赋值
setCreateTime.invoke(entity,now);
setCreateUser.invoke(entity,currentId);
setUpdateTime.invoke(entity,now);
setUpdateUser.invoke(entity,currentId);
} catch (Exception e) {
e.printStackTrace();
}
}else if(operationType == OperationType.UPDATE){
//为2个公共字段赋值
try {
Method setUpdateTime = entity.getClass().getDeclaredMethod(AutoFillConstant.SET_UPDATE_TIME, LocalDateTime.class);
Method setUpdateUser = entity.getClass().getDeclaredMethod(AutoFillConstant.SET_UPDATE_USER, Long.class);
//通过反射为对象属性赋值
setUpdateTime.invoke(entity,now);
setUpdateUser.invoke(entity,currentId);
} catch (Exception e) {
e.printStackTrace();
}
}
}
}
04.使用注解:Mapper接口
@Mapper
public interface EmployeeMapper {
/**
* 根据用户名查询员工
* @param username
* @return
*/
Employee getByUsername(String username);
/**
* 新增员工
* @param employee
*/
@AutoFill(value = OperationType.INSERT)
void insert(Employee employee);
/**
* 分页查询
* @param employeePageQueryDTO
* @return
*/
Page<Employee> pageQuery(EmployeePageQueryDTO employeePageQueryDTO);
/**
* 根据主键动态修改属性
* @param employee
*/
@AutoFill(value = OperationType.UPDATE)
void update(Employee employee);
/**
* 根据id查询员工信息
* @param id
* @return
*/
Employee getById(Long id);
}
2.9 注解:模块日志记录
00.思路
a.定义自定义注解
创建一个注解(如 @AccessLog),用于标识需要记录访问日志的接口,并配置相关参数(如模块名称)
b.实现切面逻辑
a.获取请求信息
模块名称:从 @AccessLog 注解中获取 module 参数,标识当前操作所属的模块
IP 地址:通过 ServletUtil.getClientIP(request) 获取客户端的 IP 地址
访问时间:记录当前时间
用户名:从会话中获取当前用户的用户名
b.记录日志
构建插入日志的 SQL 语句,将访问信息插入到数据库的日志表中
使用 JdbcDataAccess 执行 SQL 语句,将日志记录持久化到数据库
c.过滤本地访问
排除本地访问(IP 为 0:0:0:0:0:0:0:1),仅记录来自外部的请求
c.在控制器中使用注解
将注解应用到需要记录访问日志的接口方法上
01.自定义注解
@Retention(RetentionPolicy.RUNTIME)
@Target(ElementType.METHOD)
public @interface AccessLog {
String module() default "";
}
02.自定义切面
@Slf4j
@Aspect
@Component
public class AccessLogAspect {
@Autowired
public HttpServletRequest request;
@Autowired
@Qualifier("omsDataSource")
DataSource omsDataSource;
public JdbcDataAccess getOmsJDBC() {
return new JdbcDataAccess(omsDataSource);
}
@Pointcut("@annotation(AccessLog)")
public void logPointCut() {
}
@After("logPointCut()")
public void after(JoinPoint joinPoint) {
Method method = getMethod(joinPoint);
AccessLog accessLog = method.getAnnotation(AccessLog.class);
if (accessLog != null) {
String module = accessLog.module();
String ip = ServletUtil.getClientIP(request);
DateTime date = DateUtil.date();
String name = HttpSessionManager.getAttribute(request, HttpSessionManager.AUTH_USER_KEY).toString();
if (!"0:0:0:0:0:0:0:1".equals(ip)) {
HashMap<String, Object> dto = new HashMap<>();
dto.put("FWMK", module);
dto.put("FWIP", ip);
dto.put("FWYH", name);
dto.put("FWSJ", date.toString());
//
StringBuffer sql = new StringBuffer();
StringBuffer cols = new StringBuffer();
StringBuffer vals = new StringBuffer();
Set<String> keySet = dto.keySet();
cols.append(" OBJ_ID,OBJ_DISPIDX");
vals.append(" MW_SYS.NEWGUID(),'0'");
for (String key : keySet) {
String value = (String) dto.get(key);
cols.append("," + key);
vals.append("," + "'" + value + "'");
}
sql.append("INSERT INTO MW_APP.MWT_UD_FHYC_FWJL (" + cols + ") ");
sql.append("VALUES(" + vals + ")");
//
JdbcDataAccess dao = getOmsJDBC();
log.info("用户访问菜单记录:" + sql);
dao.execute(sql.toString());
}
}
}
public Method getMethod(JoinPoint joinPoint) {
Method[] methods = joinPoint.getTarget().getClass().getMethods();
String methodName = joinPoint.getSignature().getName();
for (Method method : methods) {
if (method.getName().equals(methodName)) {
return method;
}
}
return null;
}
}
03.controller实现
@PostMapping("predictedValue")
@AccessLog(module = "短期系统负荷预测")
public ResponseResult queryPredictedValue(@RequestBody Map<String, Object> params) {
if (StringUtils.isEmpty(params.get("startDate")) || StringUtils.isEmpty(params.get("endDate"))) {
return ResponseResult.failedResult("日期不可以为空");
}
if (StringUtils.isEmpty(params.get("dq"))) {
return ResponseResult.failedResult("地区为空");
}
return ResponseResult.successResult(loadForecastingAnalysisService.queryPredictedValue(params));
}
2.10 定时:重复执行
00.思路
a.问题
在多节点部署的系统中,定时任务可能会被多个节点同时执行,导致重复执行的问题
这种情况可能导致数据不一致,例如用户积分被多次增加
b.使用数据库乐观锁
a.实现机制
在数据库中增加一个字段(如更新日期)用于乐观锁
每次更新时,检查该字段是否为预期值,如果是则更新,否则不更新
b.示例SQL
update user set point = point + 10, modifyTime = '2024-03-26' where id = 1 and modifyTime = '2024-03-25'
c.缺点
在高并发环境下,所有节点都会尝试更新,导致大量无效更新请求,对数据库造成压力
c.使用分布式锁
a.实现机制
在执行定时任务前,获取一把分布式锁
只有获取到锁的节点才能执行任务
释放锁后,其他节点可以尝试获取锁执行任务
b.优点
减少了无效的更新操作,对数据库压力较小
c.注意事项
需要确保分布式锁服务(如Redis)高可用
仍可能存在极少量的重复更新操作
d.使用消息队列
a.实现机制
将需要更新的数据放入消息队列
每个节点作为消费者,从队列中消费数据并执行更新
确保每条记录只被一个消费者处理
b.缺点
消息队列可能会堆积大量消息,尤其在数据量很大时
需要处理消费失败的记录
单点故障可能导致数据无法更新,需要集群支持
e.使用分布式任务调度框架(如xxl-job)
a.定义
XXL-JOB是一个开源的分布式任务调度框架,提供任务调度中心、执行器和任务日志等组件
b.功能
支持任务的定时调度、动态添加和删除
提供执行情况监控和日志记录
c.优点
专为分布式任务调度设计,能够有效管理和调度大规模任务
01.描述
当使用 @Scheduled(cron = "*/20 * * * * ?") 每20秒触发一次任务,并且有3个线程同时执行任务时
如果这3个线程都进入相同的 if 语句来判断数据库当天是否存在数据
02.并发执行的潜在问题
a.竞态条件(Race Condition)
检查与插入:假设当天的数据尚不存在,3个线程几乎同时执行 if 语句,查询数据库后都发现没有数据,于是都尝试插入当天的数据
结果:可能导致插入重复的数据记录,或者因为数据库唯一约束(如果有)而抛出异常
b.资源竞争
多个线程同时访问数据库,可能导致数据库连接池耗尽或性能下降,尤其是在高并发场景下
03.具体发生的情况
a.假设你的 if 语句类似如下
@Scheduled(cron = "*/20 * * * * ?")
public void scheduledTask() {
if (!dataExistsToday()) {
insertData();
}
}
b.当3个线程几乎同时执行到 if (!dataExistsToday()) 时
所有线程可能都判断为当天数据不存在,然后都执行 insertData() 方法,导致以下问题
重复数据:插入多条相同的数据记录。
异常抛出:如果数据库表中对日期字段有唯一约束,后续的插入操作会抛出唯一约束违反的异常
04.方案1:使用同步锁(Synchronized Lock)
a.说明
通过在代码层面加锁,确保同一时间只有一个线程能够执行关键代码块
优点:简单易实现,适用于单实例应用
缺点:如果应用是分布式部署的(多实例),需要使用分布式锁
b.代码
@Service
public class ScheduledTask {
private final Object lock = new Object();
@Scheduled(cron = "*/20 * * * * ?")
public void scheduledTask() {
synchronized(lock) {
if (!dataExistsToday()) {
insertData();
}
}
}
private boolean dataExistsToday() {
// 查询数据库逻辑
}
private void insertData() {
// 插入数据逻辑
}
}
05.方案2:使用数据库事务与唯一约束
a.说明
添加唯一约束,在数据库表中为日期字段添加唯一约束,防止插入重复数据
ALTER TABLE your_table ADD CONSTRAINT unique_date UNIQUE (date_column);
优点:利用数据库的原子性和一致性,确保数据的唯一性。适用于分布式环境
缺点:需要处理异常,增加代码复杂度
b.代码
在插入数据时,使用事务管理,捕获唯一约束异常,确保数据一致性
@Service
public class ScheduledTask {
@Autowired
private DataRepository dataRepository;
@Transactional
@Scheduled(cron = "*/20 * * * * ?")
public void scheduledTask() {
if (!dataRepository.existsByDate(LocalDate.now())) {
try {
dataRepository.insertData(...);
} catch (DataIntegrityViolationException e) {
// 处理唯一约束违反的异常
}
}
}
}
06.方案3:使用分布式锁
a.说明
如果你的应用是分布式部署的,可以使用分布式锁来确保同一时间只有一个实例执行关键代码
常用工具:
Redis:利用 Redis 的 SETNX 命令实现分布式锁
Zookeeper:使用 Zookeeper 的临时节点机制实现分布式锁
b.代码
@Service
public class ScheduledTask {
@Autowired
private StringRedisTemplate redisTemplate;
@Scheduled(cron = "*/20 * * * * ?")
public void scheduledTask() {
String lockKey = "scheduledTaskLock";
Boolean success = redisTemplate.opsForValue().setIfAbsent(lockKey, "locked", 30, TimeUnit.SECONDS);
if (Boolean.TRUE.equals(success)) {
try {
if (!dataExistsToday()) {
insertData();
}
} finally {
redisTemplate.delete(lockKey);
}
}
}
private boolean dataExistsToday() {
// 查询数据库逻辑
}
private void insertData() {
// 插入数据逻辑
}
}
2.11 文件:web-worker
01.介绍
a.背景
在Web应用中,文件上传是一项常见的功能
然而,当文件体积过大时,传统的文件上传方式往往会导致页面卡顿,用户体验不佳
为了解决这一问题,我们可以利用Web Worker技术来进行大文件的切片上传
b.简介
Web Worker是Web浏览器提供的一种在后台线程中运行JavaScript的功能
它独立于主线程运行,可以执行计算密集型或长时间运行的任务,而不会阻塞页面的渲染和交互
通过将大文件切片上传的逻辑放在Web Worker中执行,我们可以充分利用浏览器的多线程能力
提高上传速度,并保持页面的流畅运行
02.Web Worker基于Vue的基础用法
a.安装worker-loader
首先,你需要安装worker-loader,这是一个webpack的loader,用于处理worker文件
npm install --save-dev worker-loader
b.配置webpack
module.exports = {
publicPath: './',
chainWebpack: config => {
config.module
.rule('worker')
.test(/\.worker\.js$/) // 如果需要.worker.js后缀
.use('worker-loader')
.loader('worker-loader')
.options({ // 可以查阅worker-loader文档,根据自己的需求进行配置
})
}
}
c.创建和使用worker
创建一个worker文件,并给它一个.worker.js的扩展名。例如,你可以创建一个my-worker.worker.js文件
// my-worker.worker.js
self.onmessage = function(e) {
console.log('Worker: Hello World');
const result = doSomeWork(e.data);
self.postMessage(result);
};
function doSomeWork(data) {
// 模拟一些工作
return data * 2;
}
-----------------------------------------------------------------------------------------------------
在你的Vue组件或其他JavaScript文件中,你可以像下面这样创建一个worker实例:
// MyComponent.vue 或其他.js文件
import MyWorker from './my-worker.worker.js';
export default {
methods: {
startWorker() {
const myWorker = new MyWorker();
myWorker.onmessage = (e) => {
console.log('Main script: Received result', e.data);
};
myWorker.postMessage(100); // 发送数据给worker
}
},
mounted() {
this.startWorker();
}
};
-----------------------------------------------------------------------------------------------------
现在,当组件被挂载时,它将启动worker,发送一个消息,并在收到worker的响应时打印结果
03.实战:实现大文件切片上传
a.过程
1.文件切片:使用 JavaScript 的 Blob.prototype.slice() 方法将大文件切分成多个切片
2.上传切片:使用 axios 或其他 HTTP 客户端库逐个上传切片。可以为每个切片生成一个唯一的标识符(例如,使用文件的哈希值和切片索引),以便后端能够正确地将它们合并
3.客户端线程数:获取用户CPU线程数量,以便最大优化上传文件速度
4.控制上传接口的并发数量:防止大量的请求并发导致页面卡死,设计一个线程队列,控制请求数量一直保持在6
b.实现
1.获取客户端线程数量
navigator.hardwareConcurrency 是一个只读属性,它返回用户设备的逻辑处理器内核数。
export const getConcurrency = () => navigator.hardwareConcurrency || 4 // 浏览器不支持就默认4核
-----------------------------------------------------------------------------------------------------
2.主线程
定义和处理一些必要的常量,并且根据用户的线程数进行开启多线程Web-worker任务处理文件切片。
import { defer, createEventHandler } from 'js-hodgepodge'
import FileWorker from './files.worker'
export const getConcurrency = () => navigator.hardwareConcurrency || 4
export const handleEvent = () => createEventHandler('handleSchedule')
export const sliceFile = file => {
const dfd = defer()
const chunkSize = 1024 // 1Kb
const thread = getConcurrency() // 线程数
const chunks = []
const chunkNum = Math.ceil(file.size / chunkSize) // 切片总数量
const workerChunkCount = Math.ceil(chunkNum / thread) // 每个线程需要处理的切片数量
let finishCount = 0;
for (let i = 0; i < thread; i++) {
const worker = new FileWorker()
// 计算每个线程的开始索引和结束索引
const startIndex = i * workerChunkCount;
let endIndex = startIndex + workerChunkCount;
// 防止最后一个线程结束索引大于文件的切片数量的总数量
if (endIndex > chunkNum) {
endIndex = chunkNum;
}
worker.postMessage({
file,
chunkSize,
startIndex,
endIndex,
});
worker.onmessage = (e) => {
// 接收到 worker 线程返回的消息
for (let i = startIndex; i < endIndex; i++) {
chunks[i] = {
...e.data[i - startIndex],
chunkNum,
filename: file.name
};
}
worker.terminate(); // 关闭线程
finishCount++;
if (finishCount === thread) {
dfd.resolve({
chunks,
chunkNum
});
}
};
}
return dfd
}
c.实现文件切片
首先,我们需要创建一个 Web Worker 脚本,用于处理文件切片和切片hash
-----------------------------------------------------------------------------------------------------
import md5 from 'js-md5'
self.onmessage = async function ({
data: {
file,
chunkSize,
startIndex,
endIndex,
}
}) {
const arr = [];
for (let i = startIndex; i < endIndex; i++) {
arr.push(
createChunks(file, i, chunkSize)
);
}
const chunks = await Promise.all(arr)
// 提交线程信息
postMessage(chunks);
}
const createChunks = (
file,
index,
chunkSize
) => {
return new Promise((resolve) => {
// 开始第几个*分片的大小
const start = index * chunkSize;
// 结束时start + 分片的大小
const end = start + chunkSize;
const fileReader = new FileReader();
// 每个切片都通过FileReader读取为ArrayBuffer
fileReader.onload = (e) => {
const content = new Uint8Array(e.target.result);
const files = file.slice(start, end);
const md5s = md5.arrayBuffer(content)
function arrayBufferToHex(buffer) {
let bytes = new Uint8Array(buffer);
let hexString = '';
for (let i = 0; i < bytes.byteLength; i++) {
let hex = bytes[i].toString(16);
hexString += hex.length === 1 ? '0' + hex : hex;
}
return hexString;
}
resolve({
start,
end,
index,
hash: arrayBufferToHex(md5s), // 生成唯一的hash
files,
});
};
// 读取文件的分片
fileReader.readAsArrayBuffer(file.slice(start, end));
});
}
-----------------------------------------------------------------------------------------------------
Web Worker通过onmessage事件接收消息。当主线程发送消息时,这个消息会作为参数传递给onmessage函数
切片hash处理流程:使用FileReader来读取文件内容
当文件分片读取完毕后,会触发onload这个事件
使用new Uint8Array(e.target.result)将读取的ArrayBuffer转换为Uint8Array
再利用js-md5的使用md5.arrayBuffer(content)计算分片的MD5哈希值
使用arrayBufferToHex函数将切片buffer转换为十六进制String,当所有分片处理完毕后
将结果(即分片及其相关信息)发送postMessage回主线程
d.请求池的设计与处理
我这里创建一个请求队列,并使用 Promise 来控制并发请求的数量。创建一个数组来存储待处理的请求
并使用 Promise 来控制每次只有一定数量的请求被发送。当某个请求完成时,再从队列中取出下一个请求来发送
-----------------------------------------------------------------------------------------------------
export const uploadFile = (
chunks // 总切片
) => {
chunks = chunks || []
let schedule = 0 // 进度
const { dispatch } = handleEvent()
const requestQueue = (concurrency) => {
concurrency = concurrency || 6
const queue = [] // 线程池
let current = 0
const dequeue = () => {
while (current < concurrency && queue.length) {
current++;
const requestPromiseFactory = queue.shift();
requestPromiseFactory()
.then(result => { // 上传成功处理
console.log(result)
schedule++; // 收集上传切片成功的数量
dispatch(window, schedule); // 事件派发,通知进度
})
.catch(error => { // 失败
console.log(error)
})
.finally(() => {
current--;
dequeue();
});
}
}
return (requestPromiseFactory) => {
queue.push(requestPromiseFactory)
dequeue()
}
}
const handleFormData = obj => {
const formData = new FormData()
Object
.entries(obj)
.forEach(([key, val]) => {
formData.append(key, val)
})
return formData
}
const enqueue = requestQueue(6)
for (let i = 0; i < chunks.length; i++) {
enqueue(() => axios.post(
'/api/upload',
handleFormData(chunks[i]),
{
headers: {
'Content-Type': 'multipart/form-data'
}
}
))
}
return schedule
}
-----------------------------------------------------------------------------------------------------
利用了第三方库js-hodgepodge的发布订阅,将上传切片成功的数量发布给主界面,得到相应的上传进度
e.主界面代码
<template>
<div>
<input type="file" ref="file">
<button @click="handleUpload">提交</button>
<p>进度:{{ progress * 100 }}%</p>
</div>
</template>
<script>
import { sliceFile, uploadFile, handleEvent } from './file.utils'
export default {
data() {
return {
progress: 0
}
},
methods: {
async handleUpload() {
const file = this.$refs.file.files[0]
if(!file) {
return
}
console.time()
const dfd = sliceFile(file)
dfd
.promise
.then(({ chunks, chunkNum }) => {
uploadFile(chunks)
const { addEventListener } = handleEvent()
const eject = addEventListener(window, ({ detail: schedule }) => {
this.progress = schedule / chunkNum
if(schedule === chunkNum) { // 上传完成,关闭事件监听
eject()
}
})
})
console.timeEnd()
}
}
}
</script>
<style>
</style>
2.12 文件:秒传、断点续传、分片上传
00.介绍
a.秒传
秒传,顾名思义,就是几乎瞬间完成文件上传的过程
其实现原理是通过计算文件的哈希值(如 MD5 或 SHA-1),然后将这个唯一的标识符发送给服务器
如果服务器上已经存在相同的文件,则直接返回成功信息,避免了重复上传
这种方式不仅节省了带宽,也大大提高了用户体验
b.断点续传
断点续传是指在网络不稳定或者用户主动中断上传后,能够从上次中断的地方继续上传,而不需要重新开始整个过程
这对于大文件上传尤为重要,因为它可以有效防止因网络问题导致的上传失败,同时也能节约用户的流量和时间
c.分片上传
分片上传则是将一个大文件分割成多个小块分别上传,最后再由服务器合并成完整的文件
这种做法的好处是可以并行处理多个小文件,提高上传效率
同时,如果某一部分上传失败,只需要重传这一部分,不影响其他部分
01.秒传实战
a.后端实现
在 SpringBoot 项目中,我们可以使用 MessageDigest 类来计算文件的 MD5 值,然后检查数据库中是否存在该文件
-----------------------------------------------------------------------------------------------------
@RestController
@RequestMapping("/file")
public class FileController {
@Autowired
FileService fileService;
@PostMapping("/upload1")
public ResponseEntity<String> secondUpload(@RequestParam(value = "file",required = false) MultipartFile file,@RequestParam(required = false,value = "md5") String md5) {
try {
// 检查数据库中是否已存在该文件
if (fileService.existsByMd5(md5)) {
return ResponseEntity.ok("文件已存在");
}
// 保存文件到服务器
file.transferTo(new File("/path/to/save/" + file.getOriginalFilename()));
// 保存文件信息到数据库
fileService.save(new FileInfo(file.getOriginalFilename(), DigestUtils.md5DigestAsHex(file.getInputStream())));
return ResponseEntity.ok("上传成功");
} catch (Exception e) {
return ResponseEntity.status(HttpStatus.INTERNAL_SERVER_ERROR).body("上传失败");
}
}
}
b.前端调用
前端可以通过 JavaScript 的 FileReader API 读取文件内容,通过 spark-md5 计算 MD5 值,然后发送给后端进行校验
前端分为两个步骤:
计算文件的 MD5 值,计算之后发送给服务端确定文件是否存在
如果文件已经存在,则不需要继续上传文件;如果文件不存在,则开始上传文件,上传文件和 MD5 校验请求类似
-----------------------------------------------------------------------------------------------------
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8">
<title>秒传</title>
<script src="spark-md5.js"></script>
</head>
<body>
<input type="file" id="fileInput" />
<button onclick="startUpload()">开始上传</button>
<hr>
<script>
async function startUpload() {
const fileInput = document.getElementById('fileInput');
const file = fileInput.files[0];
if (!file) {
alert("请选择文件");
return;
}
const md5 = await calculateMd5(file);
const formData = new FormData();
formData.append('md5', md5);
const response = await fetch('/file/upload1', {
method: 'POST',
body: formData
});
const result = await response.text();
if (response.ok) {
if (result != "文件已存在") {
// 开始上传文件
}
} else {
console.error("上传失败: " + result);
}
}
function calculateMd5(file) {
return new Promise((resolve, reject) => {
const reader = new FileReader();
reader.onloadend = () => {
const spark = new SparkMD5.ArrayBuffer();
spark.append(reader.result);
resolve(spark.end());
};
reader.onerror = () => reject(reader.error);
reader.readAsArrayBuffer(file);
});
}
</script>
</body>
</html>
02.分片上传
a.介绍
分片上传关键是在前端对文件切片,比如一个 10MB 的文件切为 10 份,每份 1MB。每次上传的时候,需要多一个参数记录当前上传的文件切片的起始位置
比如一个 10MB 的文件,切为 10 份,每份 1MB,那么
第 0 片,从 0 开始,一共是 1024*1024 个字节
第 1 片,从 1024*1024 开始,一共是 1024*1024 个字节
第 2 片...
b.后端实现
private static final String UPLOAD_DIR = System.getProperty("user.home") + "/uploads/";
/**
* 上传文件到指定位置
*
* @param file 上传的文件
* @param start 文件开始上传的位置
* @return ResponseEntity<String> 上传结果
*/
@PostMapping("/upload2")
public ResponseEntity<String> resumeUpload(@RequestParam("file") MultipartFile file, @RequestParam("start") long start,@RequestParam("fileName") String fileName) {
try {
File directory = new File(UPLOAD_DIR);
if (!directory.exists()) {
directory.mkdirs();
}
File targetFile = new File(UPLOAD_DIR + fileName);
RandomAccessFile randomAccessFile = new RandomAccessFile(targetFile, "rw");
FileChannel channel = randomAccessFile.getChannel();
channel.position(start);
channel.transferFrom(file.getResource().readableChannel(), start, file.getSize());
channel.close();
randomAccessFile.close();
return ResponseEntity.ok("上传成功");
} catch (Exception e) {
System.out.println("上传失败: "+e.getMessage());
return ResponseEntity.status(500).body("上传失败");
}
}
-----------------------------------------------------------------------------------------------------
后端每次处理的时候,需要先设置文件的起始位置
c.前端调用
前端需要将文件切分成多个小块,然后依次上传
-----------------------------------------------------------------------------------------------------
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>分片示例</title>
</head>
<body>
<input type="file" id="fileInput" />
<button onclick="startUpload()">开始上传</button>
<script>
async function startUpload() {
const fileInput = document.getElementById('fileInput');
const file = fileInput.files[0];
if (!file) {
alert("请选择文件");
return;
}
const filename = file.name;
let start = 0;
uploadFile(file, start);
}
async function uploadFile(file, start) {
const chunkSize = 1024 * 1024; // 每个分片1MB
const total = Math.ceil(file.size / chunkSize);
for (let i = 0; i < total; i++) {
const chunkStart = start + i * chunkSize;
const chunkEnd = Math.min(chunkStart + chunkSize, file.size);
const chunk = file.slice(chunkStart, chunkEnd);
const formData = new FormData();
formData.append('file', chunk);
formData.append('start', chunkStart);
formData.append('fileName', file.name);
const response = await fetch('/file/upload2', {
method: 'POST',
body: formData
});
const result = await response.text();
if (response.ok) {
console.log(`分片 ${i + 1}/${total} 上传成功`);
} else {
console.error(`分片 ${i + 1}/${total} 上传失败: ${result}`);
break;
}
}
}
</script>
</body>
</html>
03.断点续传
a.介绍
断点续传的技术原理类似于分片上传
当文件已经上传了一部分之后,断了需要重新开始上传
那么我们的思路是这样的
前端先发送一个请求,检查要上传的文件在服务端是否已经存在,如果存在,目前大小是多少
前端根据已经存在的大小,继续上传文件即可
b.后端案例
@GetMapping("/check")
public ResponseEntity<Long> checkFile(@RequestParam("filename") String filename) {
File file = new File(UPLOAD_DIR + filename);
if (file.exists()) {
return ResponseEntity.ok(file.length());
} else {
return ResponseEntity.ok(0L);
}
}
如果文件存在,则返回已经存在的文件大小
如果文件不存在,则返回 0,表示前端从头开始上传该文件
c.前端调用
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>断点续传示例</title>
</head>
<body>
<input type="file" id="fileInput"/>
<button onclick="startUpload()">开始上传</button>
<script>
async function startUpload() {
const fileInput = document.getElementById('fileInput');
const file = fileInput.files[0];
if (!file) {
alert("请选择文件");
return;
}
const filename = file.name;
let start = await checkFile(filename);
uploadFile(file, start);
}
async function checkFile(filename) {
const response = await fetch(`/file/check?filename=${filename}`);
const start = await response.json();
return start;
}
async function uploadFile(file, start) {
const chunkSize = 1024 * 1024; // 每个分片1MB
const total = Math.ceil((file.size - start) / chunkSize);
for (let i = 0; i < total; i++) {
const chunkStart = start + i * chunkSize;
const chunkEnd = Math.min(chunkStart + chunkSize, file.size);
const chunk = file.slice(chunkStart, chunkEnd);
const formData = new FormData();
formData.append('file', chunk);
formData.append('start', chunkStart);
formData.append('fileName', file.name);
const response = await fetch('/file/upload2', {
method: 'POST',
body: formData
});
const result = await response.text();
if (response.ok) {
console.log(`分片 ${i + 1}/${total} 上传成功`);
} else {
console.error(`分片 ${i + 1}/${total} 上传失败: ${result}`);
break;
}
}
}
</script>
</body>
</html>
2.13 异常:远程接口一定要捕获异常
01.为什么远程接口必须捕获异常?
远程调用涉及网络,网络可能会断开、延迟、数据包丢失等,通常会抛出java.rmi.RemoteException或其子类
02.远程接口的声明
a.在声明一个远程接口时,通常需要声明 throws RemoteException
import java.rmi.Remote;
import java.rmi.RemoteException;
public interface MyRemoteInterface extends Remote {
void myRemoteMethod() throws RemoteException;
}
b.在实现这个接口的类中,任何方法的实现都需要处理这些可能抛出的异常
import java.rmi.server.UnicastRemoteObject;
import java.rmi.RemoteException;
public class MyRemoteImpl extends UnicastRemoteObject implements MyRemoteInterface {
protected MyRemoteImpl() throws RemoteException {
super();
}
@Override
public void myRemoteMethod() throws RemoteException {
// 具体的远程方法实现
try {
// 执行远程操作
} catch (SomeSpecificException e) {
// 捕获并处理特定异常
} catch (RemoteException e) {
// 捕获并处理远程调用异常
throw e; // 可以选择重新抛出
} catch (Exception e) {
// 捕获并处理其他异常
throw new RemoteException("Unexpected error", e);
}
}
}
3 设计模式
3.1 汇总:3类,23种
01.五大原则
1.开闭原则
2.单一职责原则
3.里氏替换原则
4.接口隔离原则
5.依赖倒置原则
02.23种设计模式
a.创建型模式
1.单例模式:饿汉式、懒汉式、双重检查锁、静态内部类、枚举方法、带volatile的双重校验锁法、使用ThreadLocal实现单例模式、使用CAS锁实现
2.工厂方法模式
3.抽像工厂模式
4.建造者模式
5.原型模式
b.结构性模式
1.享元模式
2.外观模式
3.适配器模式
4.装饰者模式
5.组合模式
c.行为型模式
1.策略模式
2.模板方法模式
3.观察者模式
4.责任链模式
5.命令模式
6.备忘录模式
7.迭代器模式
8.状态模式
03.创建型模式
1.单例模式
单例模式确保一个类只有一个实例,并提供一个全局访问点。通常用于需要频繁使用的对象,如配置管理器或日志记录器
饿汉式、懒汉式、双重检查锁、静态内部类、枚举方法、带volatile的双重校验锁法、使用ThreadLocal实现单例模式、使用CAS锁实现
-------------------------------------------------------------------------------------------------
Runtime类:获取系统的运行时实例
默认情况下,Spring中的Bean是单例的,通过@Component注解定义Bean时,Spring会在整个应用上下文中保持唯一实例
2.工厂方法模式
工厂方法模式定义一个用于创建对象的接口,但让子类决定要实例化哪个类。使得一个类的实例化延迟到子类
-------------------------------------------------------------------------------------------------
java.util.Calendar:使用静态工厂方法获取实例
Spring的BeanFactory提供了工厂方法的实现,可以通过配置文件或注解创建Bean
3.抽像工厂模式
抽象工厂模式提供一个接口,用于创建一系列相关或相互依赖的对象,而无需指定它们具体的类
-------------------------------------------------------------------------------------------------
GUI框架中的控件:不同平台的按钮、文本框等
Spring的@Configuration和@Bean注解可用作抽象工厂,通过不同的方法创建相互依赖的Bean
4.建造者模式
建造者模式将一个复杂对象的构建与它的表示分离,使得同样的构建过程可以创建不同的表示
-------------------------------------------------------------------------------------------------
StringBuilder、MapBuilder
Spring的@Value注解可以用于属性的逐步构建和注入,配合@ConfigurationProperties使用时常用建造者模式来创建复杂配置对象
5.原型模式
原型模式通过复制现有的实例来创建新实例,而不是通过构造函数来创建新的实例
-------------------------------------------------------------------------------------------------
Cloneable接口:Java提供的克隆机制
Spring支持原型作用域Bean,通过设置@Scope("prototype")来实现每次请求都会创建新的Bean实例
04.结构型模式
1.享元模式
享元模式通过共享对象来减少内存消耗,适用于大量相似对象的场景
-------------------------------------------------------------------------------------------------
String类的字符串常量池、Integer、Boolean等包装类的缓存、数据库连接池
Spring中Bean的共享使用了享元模式,特别是单例Bean的管理
2.外观模式
外观模式提供一个统一的接口,用来访问子系统中的一组接口,简化接口的使用
-------------------------------------------------------------------------------------------------
数据库JDBC访问
java.net.URL:提供简单的方法来处理网络地址
Spring的JdbcTemplate和RestTemplate,它们提供了简化的数据库和REST调用接口
3.适配器模式
适配器模式将一个类的接口转换为客户端所期望的另一种接口,使得不兼容的接口能够协同工作
-------------------------------------------------------------------------------------------------
java.util.Arrays#asList():将数组适配为列表
Spring MVC中的HandlerAdapter用于适配不同的控制器
Spring的@Controller与@RestController之间的适配
4.装饰者模式
装饰者模式在不改变对象接口的情况下,为对象动态添加新功能
-------------------------------------------------------------------------------------------------
java.io包中的I/O流、Collections类
Spring AOP通过动态代理的方式实现装饰者模式,为方法添加额外的功能,比如事务管理、日志记录等
5.组合模式
组合模式将对象组合成树形结构以表示“部分-整体”的层次关系,使客户端对单个对象和组合对象的使用保持一致
-------------------------------------------------------------------------------------------------
java.awt.Container类、java.util.Map和java.util.List等集合框架
Spring的ApplicationContext实现了组合模式,可以包含多个Bean,形成层次结构
05.行为型模式
1.策略模式
策略模式定义了一系列算法,将每个算法封装起来,并使它们可以互换。策略模式让算法的变化独立于使用算法的客户端
-------------------------------------------------------------------------------------------------
抽象策略类 Comparator 接口;具体策略类:可以根据自己的需求,实现不同的升序和降序等策略
Spring中的@Qualifier注解可用于选择特定的策略实现
Spring Security中的AuthenticationProvider提供不同的认证策略
2.模板方法模式
模板方法模式定义了一个操作中的算法的骨架,而将一些步骤延迟到子类中。模板方法使得子类可以在不改变算法结构的情况下重定义算法的某些特定步骤
-------------------------------------------------------------------------------------------------
java.io.FileReader和BufferedReader:定义读取文件的模板
Spring中的AbstractRoutingDataSource用于在运行时根据上下文动态选择数据源
3.观察者模式
观察者模式定义了一种一对多的依赖关系,使得一个对象(主题)状态变化时,其依赖者(观察者)自动收到通知
-------------------------------------------------------------------------------------------------
java.util.Observer和java.util.Observable类
Spring的事件发布机制,使用ApplicationEventPublisher和事件监听器
@EventListener注解用于监听应用中的事件
userRegisterObservers 是一个List,用于存储所有注册成功的观察者对象
4.责任链模式
责任链模式为请求创建了一个接收者链,沿着这个链传递请求,直到有一个接收者处理它
-------------------------------------------------------------------------------------------------
事件处理系统,如Swing或JavaFX中的事件监听机制
Spring MVC中的拦截器机制可以视作责任链模式,每个拦截器可以选择处理请求或将请求传递给下一个拦截器
5.命令模式
命令模式将请求封装为对象,从而使您可以使用不同的请求、队列或日志请求,并支持可撤销的操作
-------------------------------------------------------------------------------------------------
java.lang.Runnable接口,用于将操作封装为对象
Spring的事件发布机制也可以视为命令模式的实现,通过事件触发不同的行为
Spring的@Scheduled用于定时任务执行,可以看作是将命令对象与调度结合
6.备忘录模式
备忘录模式在不违反封装性的前提下,捕获一个对象的内部状态,以便在以后将其恢复
-------------------------------------------------------------------------------------------------
java.util.Stack的快照机制(手动实现)
Spring中的事务管理使用备忘录模式,记录状态以支持事务回滚
设计中的某些应用也可以通过持久化状态实现备忘录模式
7.迭代器模式
迭代器模式提供一种方法来顺序访问集合对象中的元素,而无需暴露该对象的内部表示
-------------------------------------------------------------------------------------------------
java.util.Iterator接口和集合类
Spring的@Autowired可用于集合类的自动装配,使用迭代器遍历集合
8.状态模式
状态模式允许对象在其内部状态发生改变时改变其行为,对象看起来好像修改了其类
-------------------------------------------------------------------------------------------------
任何需要状态管理的场景,如游戏状态、文件状态等
pring中的任务调度和状态机可以使用状态模式来管理不同的状态和行为
使用Spring State Machine框架实现复杂状态管理
3.2 应用场景:5类
01.汇总
a.MyBatis
01.代理模式(Proxy):MyBatis使用动态代理为Mapper接口生成实现类,处理数据库操作
02.工厂模式(Factory):SqlSessionFactory用于创建SqlSession对象,管理MyBatis的会话
03.模板方法模式(Template Method):BaseExecutor定义了执行查询和更新的骨架,具体实现由子类提供
04.建造者模式(Builder):MyBatis的SqlSessionFactoryBuilder用于构建SqlSessionFactory实例
b.Spring
01.简单工厂模式:用于创建Bean对象,例如BeanFactory
02.工厂方法模式:用于创建特定类型的Bean,例如实现FactoryBean接口的Bean
03.单例模式:默认作用域为单例的Bean
04.适配器模式:用于处理不同类型的Handler,例如HandlerAdapter
05.装饰器模式:用于扩展Bean的功能,例如BeanWrapper
06.代理模式:用于AOP的实现,例如JDK动态代理和CGLIB代理
07.观察者模式:用于事件驱动模型,例如ApplicationListener
08.策略模式:用于资源访问,例如Resource接口
09.模板方法模式:用于模板类的实现,例如JdbcTemplate
10.责任链模式:用于AOP的拦截器链
c.SpringMVC
01.工厂模式:HandlerMapping和ViewResolver:使用工厂模式创建相应的处理器和视图对象
02.策略模式:HandlerMapping和HandlerAdapter:定义了请求处理的策略,具体的实现类如RequestMappingHandlerMapping和SimpleControllerHandlerAdapter
03.代理模式:AOP(面向切面编程):通过代理在控制器方法调用前后添加额外的处理逻辑,如事务管理和安全检查
04.模板方法模式:AbstractController:定义了处理请求的模板方法,具体的处理逻辑由子类实现
05.单例模式:Spring Bean:默认是单例模式,确保每个控制器在Spring容器中只有一个实例
d.SpringBoot
01.单例模式:Spring容器管理的Bean默认是单例模式,确保每个Bean在容器中只有一个实例
02.工厂模式:BeanFactory和ApplicationContext都是工厂模式的实现,用于创建和管理Bean实例
03.代理模式:AOP(面向切面编程)使用了代理模式,通过动态代理在方法调用前后添加额外的处理逻辑
04.模板方法模式:JdbcTemplate和RestTemplate等模板类,定义了操作的骨架,具体的步骤由子类实现
e.Dubbo
01.工厂模式:用于创建服务实例,例如在服务导出时使用 ServiceConfig 的 export 方法
02.观察者模式:用于服务注册和订阅,注册中心通过通知机制将服务更新信息发送给提供者
03.装饰器模式:用于增强服务调用功能,通过 ProtocolFilterWrapper 将多个过滤器按顺序装饰在调用链上
04.动态代理模式:通过 ExtensionLoader 的 Adaptive 实现,根据运行时参数动态选择实现类,增强灵活性
02.Spring设计模式
a.组合模式(Composite Pattern)
a.应用场景
处理树形结构的数据,如 Spring MVC 的HandlerMapping结构
b.示例
// 组合模式示例:处理树形结构的HandlerMapping
public interface HandlerMapping {
void handleRequest();
}
public class CompositeHandlerMapping implements HandlerMapping {
private List<HandlerMapping> handlers = new ArrayList<>();
public void addHandler(HandlerMapping handler) {
handlers.add(handler);
}
@Override
public void handleRequest() {
for (HandlerMapping handler : handlers) {
handler.handleRequest();
}
}
}
b.桥接模式(Bridge Pattern)
a.应用场景
Spring的JDBC抽象(如JdbcTemplate)
b.示例
// 桥接模式示例:JDBC抽象
public interface DataSource {
Connection getConnection();
}
public class JdbcTemplate {
private DataSource dataSource;
public JdbcTemplate(DataSource dataSource) {
this.dataSource = dataSource;
}
public void executeQuery(String sql) {
Connection connection = dataSource.getConnection();
// 执行查询逻辑
}
}
c.责任链模式(Chain of Responsibility Pattern)
a.应用场景
Spring Security框架中的过滤器链(Filter Chain)
b.示例
// 责任链模式示例:过滤器链
public interface Filter {
void doFilter(Request request, Response response, FilterChain chain);
}
public class FilterChain {
private List<Filter> filters = new ArrayList<>();
private int index = 0;
public void addFilter(Filter filter) {
filters.add(filter);
}
public void doFilter(Request request, Response response) {
if (index < filters.size()) {
Filter filter = filters.get(index++);
filter.doFilter(request, response, this);
}
}
}
d.备忘录模式(Memento Pattern)
a.应用场景
事务管理的回滚点设置
b.示例
// 备忘录模式示例:事务回滚
public class Transaction {
private String state;
public void setState(String state) {
this.state = state;
}
public Memento saveState() {
return new Memento(state);
}
public void restoreState(Memento memento) {
this.state = memento.getState();
}
}
public class Memento {
private String state;
public Memento(String state) {
this.state = state;
}
public String getState() {
return state;
}
}
e.命令模式(Command Pattern)
a.应用场景
Spring的AOP支持
b.示例
// 命令模式示例:AOP拦截器
public interface Command {
void execute();
}
public class LoggingInterceptor implements Command {
@Override
public void execute() {
System.out.println("Logging before method execution");
}
}
public class TransactionInterceptor implements Command {
@Override
public void execute() {
System.out.println("Starting transaction");
}
}
f.迭代器模式(Iterator Pattern)
a.应用场景
遍历BeanDefinition列表
b.示例
// 迭代器模式示例:遍历BeanDefinition
public interface Iterator<T> {
boolean hasNext();
T next();
}
public class BeanDefinitionIterator implements Iterator<BeanDefinition> {
private List<BeanDefinition> beanDefinitions;
private int position = 0;
public BeanDefinitionIterator(List<BeanDefinition> beanDefinitions) {
this.beanDefinitions = beanDefinitions;
}
@Override
public boolean hasNext() {
return position < beanDefinitions.size();
}
@Override
public BeanDefinition next() {
return beanDefinitions.get(position++);
}
}
3.3 单例模式:创建型
00.总结
a.模式
1.饥饿模式:JVM在加载类的时候就完成类对象的创建
2.懒惰模式:在真正需要的时候再完成类对象的创建
3.双重检查锁模式:在线程安全的懒惰模式的基础上改进
4.静态内部类实现单例【推荐】:静态内部类也称作Singleton Holder, 也就是单持有者模式, 是线程安全的, 也是懒惰模式的变形
比较推荐这种方式, 没有加锁, 线程安全, 用到时再加载, 并发行能高.
5.枚举:通过对枚举类的反编译可以知道: 枚举类也是在JVM层面保证的线程安全.
6.通过ThreadLocal实现单例:每个线程都持有一个 ThreadLocal 标志, 用来确定该线程是否已完成所需的同步
b.8个场景
1.全局配置管理
2.日志记录器
3.数据库连接池
4.线程池
5.缓存管理
6.应用程序上下文(如Spring中的Bean)
7.设备管理器
8.任务调度器
00.介绍
a.概念
单例模式就是:保证一个类只有一个实例,并且提供一个全局访问点
单例模式就是:在程序运行期间,某些类有且最多只有一个实例对象
-----------------------------------------------------------------------------------------------------
我们的应用中可能存在这样的需求: 某些类没有自己的状态,在程序运行期间它们只需要有一个实例,换句话说,无论为这些类创建多少个实例,对程序的运行状态、运行结果都不会产生影响
更重要的一点是: 有些类如果存在两个或者两个以上的实例,应用程序就会发生某些匪夷所思的错误,不同于空指针、数组越界、非法参数等错误,这样的问题一般都很难提前发觉和定位
这个时候,我们就应该把这样的类控制为单例结构 —— 确保程序运行期间最多只有一个相对应的实例对象
-----------------------------------------------------------------------------------------------------
关于类的状态的理解:
1.比如有一个 Person 类,它有成员变量name、age等等,不同的姓名和年龄就是不同的人,也就是说这些变量都是不确定的,这样的类就是有状态的类
2.而像一些配置类,比如 RedisProps (Redis的配置信息)类,它的所有属性和方法都是static的,没有不确定的属性,这样的类就可以认为是没有状态的类
b.实现思路
1.静态化实例对象,让实例对象与Class对象互相绑定,通过Class类对象就可以直接访问
2.私有化构造方法,禁止通过构造方法创建多个实例 —— 最重要的一步
3.提供一个公共的静态方法,用来返回这个类的唯一实例
c.优势
单例模式的好处是: 尽可能节约内存空间(不用为一个类创建多个实例对象),减少GC(垃圾回收)的消耗,并使得程序正常运行
1.某些类创建比较频繁,对于一些大型的对象,这是一笔很大的系统开销
2.省去了new操作符,降低了系统内存的使用频率,减轻GC压力
3.有些类如交易所的核心交易引擎,控制着交易流程,如果该类可以创建多个的话,系统完全乱了
所以只有使用单例模式,才能保证核心交易服务器独立控制整个流程
d.场景
重量级的对象,不需要多个实例,如线程池,数据库连接池
e.6种
1.饥饿模式:JVM在加载类的时候就完成类对象的创建
2.懒惰模式:在真正需要的时候再完成类对象的创建
3.双重检查锁模式:在线程安全的懒惰模式的基础上改进
4.静态内部类实现单例【推荐】:静态内部类也称作Singleton Holder,也就是单持有者模式,是线程安全的,也是懒惰模式的变形
比较推荐这种方式,没有加锁,线程安全,用到时再加载,并发行能高
5.枚举:通过对枚举类的反编译可以知道: 枚举类也是在JVM层面保证的线程安全
6.通过ThreadLocal实现单例:每个线程都持有一个 ThreadLocal 标志,用来确定该线程是否已完成所需的同步
f.JDK中常见的单例模式
1.java.lang.Runtime类中的getRuntime()方法;
2.java.awt.Toolkit类中的getDefaultToolkit()方法;
3.java.awt.Desktop类中的getDesktop()方法;
4.RuntimeException也是单例的,因为一个Java应用只有一个Java Runtime Environment
g.破坏单例模式的方法
a.除枚举方式外,其他方法都会通过反射的方式破坏单例,解决方法:
反射是通过调用构造方法生成新的对象,可以在构造方法中进行判断 —— 若已有实例,则阻止生成新的实例
private Singleton() throws Exception {
if (instance != null) {
throw new Exception("Singleton already initialized,此类是单例类,不允许生成新对象,请通过getInstance()获取本类对象");
}
}
b.如果单例类实现了序列化接口Serializable,就可以通过反序列化破坏单例
不实现序列化接口,或者重写反序列化方法readResolve(),反序列化时直接返回相关单例对象:
// 反序列化时直接返回当前实例
public Object readResolve() {
return instance;
}
c.Object#clone()方法也会破坏单例,即使你没有实现Cloneable接口 —— 因为clone()方法是Object类中的
重写clone()方法,并在其中抛出异常信息“Can not create clone of Singleton class”
01.饥饿模式:JVM在加载类的时候就完成类对象的创建
a.代码
/**
* 饥饿模式: 类加载时就初始化
*/
final class HungrySingleton {
/** 实例对象 */
private static HungrySingleton instance = new HungrySingleton();
/** 禁用构造方法 */
private HungrySingleton() { }
/**
* 获取单例对象,直接返回已创建的实例
* @return instance 本类的实例
*/
public static HungrySingleton getInstance() {
return instance;
}
}
b.优点: JVM层面的线程安全
JVM在加载这个类的时候就会对它进行初始化,这里包含对静态变量的初始化
Java的语义包证了在引用这个字段之前并不会初始化它,并且访问这个字段的任何线程都将看到初始化这个字段所产生的所有写入操作
-----------------------------------------------------------------------------------------------------
—— 参考自 The "Double-Checked Locking is Broken" Declaration,原文如下:
If the singleton you are creating is static (i.e.,there will only be one Helper created),as opposed to a property of another object (e.g.,there will be one Helper for each Foo object,there is a simple and elegant solution.
Just define the singleton as a static field in a separate class. The semantics of Java guarantee that the field will not be initialized until the field is referenced,and that any thread which accesses the field will see all of the writes resulting from initializing that field.
==> 所以这就在JVM层面包证了线程安全
c.缺点: 造成空间的浪费
饥饿模式是典型的以空间换时间思想的实现: 不用判断就直接创建,但创建之后如果不使用这个实例就造成了空间的浪费
虽然只是一个类实例,但如果是体积比较大的类,这样的消耗也不容忽视
—— 不过在有些时候,直接初始化单例的实例对项目的影响也微乎其微
比如我们在应用启动时就需要加载的配置文件信息,就可以采取这种方式去保证单例
02.懒惰模式:在真正需要的时候再完成类对象的创建
a.代码
/**
* 懒惰模式: 用到时再初始化,线程不安全,可以在方法上使用synchronized关键字实现线程安全
*/
final class LazySingleton {
/** 实例对象 */
private static LazySingleton instance = null;
/** 禁用构造方法 */
private LazySingleton() { }
/**
* 线程不安全,可以在方法上使用synchronized关键字实现线程安全
* @return instance 本类的实例
*/
public static LazySingleton getInstance() {
if (instance == null) {
instance = new LazySingleton();
}
return instance;
}
}
b.优点:节省空间,用到的时候再创建实例对象
需要这个实例的时候,先判断它是否为空,如果为空,再创建单例对象
用到的时候再去创建,与JVM加载类的思路一致: 都是需要的时候再处理
c.缺点:线程不安全
1.在并发获取实例的时候,线程A调用getInstance(),在判断singleton == null时得到true的结果,之后进入if语句,准备创建instance实例
2.恰好在这个时候,另一个线程B来了,CPU将执行权切换给了B —— 此时A还没来得及创建出实例,所以线程B在判断singleton == null的时候,结果还是true,所以线程B也会进入if语句去创建实例
3.问题来了: 两个线程都进入了if语句,结果就是: 创建了2个实例对象
d.线程安全的懒惰模式
通过synchronized关键字对获取实例的方法进行同步限制,实现了线程安全
/**
* 在获取实例的公共方法上使用synchronized关键字实现线程安全
* @return instance 本类的实例
*/
public synchronized static LazySingleton getInstance() {
if (instance == null) {
instance = new LazySingleton();
}
return instance;
}
-----------------------------------------------------------------------------------------------------
① 优点: 避免了同步访问创建多个实例的问题
② 缺点: 很明显,这样的做法对所有线程的访问都会进行同步操作,有很严重的性能问题
03.双重检查锁模式:在线程安全的懒惰模式的基础上改进
a.代码
/**
* 双重检查锁模式: 对线程安全的懒惰模式的改进: 方法上的synchronized在每次调用时都要加锁,性能太低
*/
final class DoubleCheckedLockingSingleton {
/** 实例对象,这里还没有添加volatile关键字 */
private static DoubleCheckedLockingSingleton instance = null;
/** 禁用构造方法 */
private DoubleCheckedLockingSingleton() { }
/**
* 获取对象: 将方法上的synchronized移至内部
* @return instance 本类的实例
*/
public static DoubleCheckedLockingSingleton getInstance() {
// 先判断实例是否存在
if (instance == null) {
// 加锁创建实例
synchronized (DoubleCheckedLockingSingleton.class) {
// 再次判断,因为可能出现某个线程拿了锁之后,还没来得及执行初始化就释放了锁,
// 而此时其他的线程拿到了锁又执行到此处 ==> 这些线程都会创建一个实例,从而创建多个实例对象
if (instance == null) {
instance = new DoubleCheckedLockingSingleton();
}
}
}
return instance;
}
}
b.说明
在上述代码中,我们不难发现,其实同步操作只需要发生在实例还未创建的时候,在实例创建以后,获取实例的方法就没必要再进行同步控制了
这个思路就是 双重检查锁(Double Checked Locking,简称DCL)模式 的实现思路,是在线程安全的懒惰模式的基础上改进得来的
c.DCL存在的问题
你以为到这里,单例模式就安全了吗?不是的
在多处理器的共享内存、或者编译器的优化下,DCL模式并不一定线程 —— 可能 (注意: 只是可能出现) 会发生指令的重排序,出现半个对象的问题
(1)JVM在创建实例的时候,是分为如下步骤创建的
1.在堆内存中,为新的实例开辟空间
2.初始化构造器,对实例中的成员进行初始化
3.把这个实例的引用 (也就是这里的instance) 指向①中空间的起始地址
==> 也就是说,Java中创建一个对象的过程并不是原子性操作
(2)上述过程不是原子性的,所以就可能出现
JVM在优化代码的过程中,可能对①-③这三个过程进行重排序 —— 因为 JVM会对字节码进行优化,其中就包括了指令的重排序
如果重排序后变为①③②,就会出现一些难以捕捉的问题
(3)再来说说半个对象
构造方法中有其他非原子性操作,创建对象时只是得到了对象的正确引用,而对象内部的成员变量可能还没有来得及赋值,这个时候就可能访问到 "不正确(陈旧)" 的成员变量
对引用类型 (包括对象和数组) 变量的非同步访问,即使得到该引用的最新值,也并不能保证能得到其成员变量 (对数组而言就是每个数组中的元素) 的最新值;
d.解决方法
在声明对象时通过关键字volatile,禁止JVM对这个对象涉及到的代码重排序:
private static volatile DoubleCheckedLockingSingleton instance = null;
-----------------------------------------------------------------------------------------------------
这里我们用volatile关键字修饰了instance变量,JVM就不会对instance的创建过程进行优化,只要我们访问这个类的任意一个静态域,就会创建这个类的对象
关于volatile关键字的作用:
volatile关键字禁止了JVM的指令重排序,并且保证线程中对这个变量所做的任何写入操作对其他线程都是即时可见的 (也就是保证了内存的可见性)
需要注意的是,这两个特性是在JDK 5 之后才支持的
—— 关于类的加载机制、volitale关键字的详细作用,后续会有播客输出,读者盆友们可以先去各大博客、论坛搜索研究下,也可以查看文末的参考博客链接
04.静态内部类实现单例:静态内部类也称作Singleton Holder,也就是单持有者模式,是线程安全的,也是懒惰模式的变形
a.代码
/**
* 静态内部类模式,也称作Singleton Holder(单持有者)模式:线程安全,,懒惰模式的一种,用到时再加载
*/
final class StaticInnerSingleton {
/** 禁用构造方法 */
private StaticInnerSingleton() { }
/**
* 通过静态内部类获取单例对象, 没有加锁, 线程安全, 并发性能高
* @return SingletonHolder.instance 内部类的实例
*/
public static StaticInnerSingleton getInstance() {
return SingletonHolder.instance;
}
/** 静态内部类创建单例对象 */
private static class SingletonHolder {
private static StaticInnerSingleton instance = new StaticInnerSingleton();
}
}
b.说明
静态内部类也称作Singleton Holder,也就是单持有者模式,是线程安全的,也是懒惰模式的变形
JVM加载类的时候, 有这么几个步骤:①加载 -> ②验证 -> ③准备 -> ④解析 -> ⑤初始化
JVM在加载外部类的过程中,是不会加载静态内部类的,只有内部类(SingletonHolder)的属性/方法被调用时才会被加载,并初始化其静态属性(instance)
c.静态内部类的优势
比较推荐这种方式,没有加锁,线程安全,用到时再加载,并发行能高
05.枚举:枚举类也是在JVM层面保证的线程安全
a.代码
/**
* 枚举类单例模式
*/
enum EnumSingleton {
/** 此枚举类的一个实例, 可以直接通过EnumSingleton.INSTANCE来使用 */
INSTANCE
}
b.优点
a.不需要考虑序列化的问题
枚举序列化是由JVM保证的。每一个枚举类型和枚举变量在JVM中都是唯一的
在枚举类型的序列化和反序列化上Java做了特殊的规定:在序列化时Java仅仅是将枚举对象的name属性输出到结果中
反序列化时只是通过java.lang.Enum#valueOf()方法来根据名字查找枚举对象
编译器不允许对这种序列化机制进行定制
并且禁用了writeObject、readObject、readObjectNoData、writeReplace、readResolve等方法,从而保证了枚举实例的唯一性
b.不需要考虑反射的问题
在通过反射方法java.lang.reflect.Constructor#newInstance()创建枚举实例时, JDK源码对调用者的类型进行了判断
// 判断调用者clazz的类型是不是Modifier.ENUM(枚举修饰符),如果是就抛出参数异常
if ((clazz.getModifiers() & Modifier.ENUM) != 0)
throw new IllegalArgumentException("Cannot reflectively create enum objects");
c.缺点
所有的属性都必须在创建时指定,也就意味着不能延迟加载
并且使用枚举时占用的内存比静态变量的2倍还多,这在性能要求严苛的应用中是不可忽视的
06.通过ThreadLocal实现单例:每个线程都持有一个ThreadLocal标志,用来确定该线程是否已完成所需的同步
a.代码
/**
* 通过ThreadLocal实现单例模式, 性能可能比较低
*/
class ThreadLocalSingleton {
/** 如果 perThreadInstance.get() 返回一个非空值, 说明当前线程已经被同步了: 它要看到instance变量的初始化 */
private static ThreadLocal perThreadInstance = new ThreadLocal();
private static ThreadLocalSingleton instance = null;
public static ThreadLocalSingleton getInstance() {
if (perThreadInstance.get() == null) {
createInstance();
}
return instance;
}
private static final void createInstance() {
synchronized (ThreadLocalSingleton.class) {
if (instance == null) {
instance = new ThreadLocalSingleton();
}
}
// 任何非空的值都可以作为这里的参数
perThreadInstance.set(perThreadInstance);
}
/**
* 阿里代码规范提示:ThreadLocal变量应该至少调用一次remove()方法,原因如下
* 必须回收自定义的ThreadLocal变量,尤其在线程池场景下, 因为线程经常会被复用
* 如果不清理自定义的ThreadLocal变量,可能会影响后续业务逻辑和造成内存泄露等问题
* 尽量在代理中使用try-finally块进行回收
*/
public static void remove() {
perThreadInstance.remove();
}
}
b.说明
这种技术的性能在很大程度上取决于的JDK的版本
3.4 单例模式:8个场景
00.总结
1.全局配置管理
2.日志记录器
3.数据库连接池
4.线程池
5.缓存管理
6.应用程序上下文(如Spring中的Bean)
7.设备管理器
8.任务调度器
01.全局配置管理
a.说明
在应用程序中,通常会存在一些全局配置参数
使用单例模式可以确保在整个应用程序中配置的一致性,避免多次加载配置文件或多次解析配置信息
b.代码
public class ConfigManager {
private static ConfigManager instance;
private Properties properties;
private ConfigManager() {
properties = new Properties();
try (InputStream input = new FileInputStream("config.properties")) {
properties.load(input);
} catch (IOException ex) {
ex.printStackTrace();
}
}
public static ConfigManager getInstance() {
if (instance == null) {
synchronized (ConfigManager.class) {
if (instance == null) {
instance = new ConfigManager();
}
}
}
return instance;
}
public String getProperty(String key) {
return properties.getProperty(key);
}
}
02.日志记录器
a.说明
应用程序通常需要一个统一的日志记录机制。单例模式可以确保只有一个日志记录器实例,以保证所有日志记录操作都集中管理
b.代码
public class Logger {
private static Logger instance;
private final SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
private Logger() {
}
public static Logger getInstance() {
if (instance == null) {
synchronized (Logger.class) {
if (instance == null) {
instance = new Logger();
}
}
}
return instance;
}
public void log(String message) {
String timestamp = dateFormat.format(new Date());
System.out.println(timestamp + " - " + message);
}
}
03.数据库连接池
a.说明
为了提高性能,通常会使用数据库连接池来重用数据库连接。在这种情况下,连接池的实例应该是单例的,以避免不必要的资源消耗
b.代码
public class DatabaseConnectionPool {
private static DatabaseConnectionPool instance;
private final List<Connection> connections = new ArrayList<>();
private DatabaseConnectionPool() {
// 初始化连接池
for (int i = 0; i < 10; i++) {
connections.add(createConnection());
}
}
private Connection createConnection() {
// 创建数据库连接
try {
return DriverManager.getConnection("jdbc:mysql://localhost:3306/mydb", "user", "password");
} catch (SQLException e) {
e.printStackTrace();
return null;
}
}
public static DatabaseConnectionPool getInstance() {
if (instance == null) {
synchronized (DatabaseConnectionPool.class) {
if (instance == null) {
instance = new DatabaseConnectionPool();
}
}
return instance;
}
public Connection getConnection() {
// 从连接池中获取连接
for (Connection connection : connections) {
if (!connection.isClosed()) {
return connection;
}
}
return null;
}
}
04.线程池
a.说明
为了提高多线程程序的性能,可以使用线程池的单例模式。这样可以避免频繁创建和销毁线程,提高系统性能
b.代码
public class ThreadPool {
private static ThreadPool instance;
private final ExecutorService executorService;
private ThreadPool() {
executorService = Executors.newFixedThreadPool(10);
}
public static ThreadPool getInstance() {
if (instance == null) {
synchronized (ThreadPool.class) {
if (instance == null) {
instance = new ThreadPool();
}
}
}
return instance;
}
public void execute(Runnable task) {
executorService.execute(task);
}
}
05.缓存管理
a.说明
缓存数据的共享访问可以使用单例模式实现。这样可以确保缓存数据的一致性和高效访问
b.代码
public class CacheManager {
private static CacheManager instance;
private final Map<String, Object> cache = new HashMap<>();
private CacheManager() {
}
public static CacheManager getInstance() {
if (instance == null) {
synchronized (CacheManager.class) {
if (instance == null) {
instance = new CacheManager();
}
}
}
return instance;
}
public Object get(String key) {
return cache.get(key);
}
public void put(String key, Object value) {
cache.put(key, value);
}
}
06.应用程序上下文(如Spring中的Bean)
a.说明
在Spring框架中,Bean默认是单例的。这确保了每个Bean在整个应用程序中只有一个实例,从而提高了性能和资源利用率
b.代码
@Configuration
public class AppConfig {
@Bean
public MyService myService() {
return new MyService();
}
}
public class MyService {
// 业务逻辑
}
public class Main {
public static void main(String[] args) {
ApplicationContext context = new AnnotationConfigApplicationContext(AppConfig.class);
MyService service1 = context.getBean(MyService.class);
MyService service2 = context.getBean(MyService.class);
System.out.println(service1 == service2); // true
}
}
07.设备管理器
a.说明
在多线程环境中,设备管理器需要确保只有一个实例来管理设备资源,避免多个线程同时操作同一个设备
b.代码
public class DeviceManager {
private static DeviceManager instance;
private final Map<String, Device> devices = new HashMap<>();
private DeviceManager() {
// 初始化设备
devices.put("printer", new PrinterDevice());
devices.put("scanner", new ScannerDevice());
}
public static DeviceManager getInstance() {
if (instance == null) {
synchronized (DeviceManager.class) {
if (instance == null) {
instance = new DeviceManager();
}
}
}
return instance;
}
public Device getDevice(String deviceName) {
return devices.get(deviceName);
}
}
08.任务调度器
a.说明
任务调度器通常需要确保只有一个实例来管理任务的调度,避免多个实例导致任务重复执行
b.代码
public class TaskScheduler {
private static TaskScheduler instance;
private final ScheduledExecutorService scheduler;
private TaskScheduler() {
scheduler = Executors.newScheduledThreadPool(10);
}
public static TaskScheduler getInstance() {
if (instance == null) {
synchronized (TaskScheduler.class) {
if (instance == null) {
instance = new TaskScheduler();
}
}
}
return instance;
}
public void schedule(Runnable task, long delay, TimeUnit unit) {
scheduler.schedule(task, delay, unit);
}
}
3.5 单例模式:Spring使用
01.spring单例模式
a.定义
Spring框架提供了一种单例模式的实现方式,即通过IoC容器管理Bean的生命周期来实现单例模式
在Spring中,通过在配置文件或者注解中声明Bean的作用域为singleton,就可以将该Bean定义为单例模式
当容器初始化时,会创建该Bean的一个实例,并将其放入容器中。之后,每次请求该Bean时,都会返回同一个实例
b.注意
Spring的单例模式是基于容器的,即容器负责管理Bean的生命周期和实例化过程
因此,开发人员无需手动管理单例对象的创建和销毁,只需要通过容器来获取单例Bean的实例即可
02.Spring单例模式实现原理
a.容器初始化
当Spring容器启动时,会读取配置文件或者注解,解析Bean的定义信息,并创建Bean的实例
b.创建单例Bean
当容器创建Bean的实例时,会根据Bean的作用域来判断是否需要创建单例Bean
如果Bean的作用域为singleton,则容器会创建一个单例Bean的实例,并将其放入容器中
c.容器管理单例Bean
容器会将创建的单例Bean实例放入一个缓存中,以便后续的请求可以直接返回该实例
d.返回单例Bean
每次请求该单例Bean时,容器会直接从缓存中获取该实例,并返回给调用方
3.6 工厂模式:创建型
00.介绍
a.概念
定义一个用于创建对象的接口,让子类决定实例化哪一个类,FactoryMethod使得一个类的实例化延迟到子类
b.优点
1.将具体产品和创建者解耦
2.符合单一职责原则
3.符合开闭原则
c.场景
1.当你不知道改使用对象的确切类型的时候
2.当你希望为库或框架提供扩展其内部组件的方法时
d.工厂模式可以分为三类:
简单工厂模式
工厂方法模式
抽象工厂模式
01.简单工厂模式
a.概念
简单工厂模式是通过一个专门的类来负责创建对象,而不是让客户端直接实例化具体类
它可以根据传入的参数,创建不同类型的对象
b.优点
通过将创建逻辑集中在一个工厂类中,简化了客户端代码
使用简单,适用于创建固定对象的场景
c.缺点
工厂类的逻辑会越来越复杂,不易扩展
不符合“开放-关闭原则”,添加新产品时需要修改工厂类代码
d.场景
适用于产品结构简单,变化少的情况
02.工厂方法模式
a.概念
工厂方法模式中,每一个具体产品类对应一个具体的工厂类,用于创建该产品类的实例
工厂方法模式将创建对象的职责下放到子类,由子类决定具体实例化哪一个类
b.优点
遵循“开放-关闭原则”,新产品可以通过增加新工厂来实现扩展
创建过程的细节被封装,客户端只需调用工厂接口
c.缺点
类的数量会随着产品种类的增加而增加
增加了系统的复杂性
d.场景
适用于创建逻辑复杂,且需要遵循开放-关闭原则的场景
03.抽象工厂模式
a.概念
抽象工厂模式是一种更为复杂的工厂模式,允许创建一系列相关或依赖的对象
它提供一个接口,用于创建一系列相关对象,而无需指定它们的具体类
b.优点
适用于创建多个相互关联的对象,保证产品族的一致性
提高了系统的可扩展性
c.缺点
系统变得更加复杂。
当需要增加新的产品族时,需要修改抽象工厂及其所有子类
d.场景
适用于需要创建产品族的场景,例如UI组件库中的按钮和文本框等组合的场景
04.简单工厂模式
a.定义一个接口 Pizza
package com.yintong.principle.singleresponsibility;
//将Pizza 做成一个接口
public interface Pizza {
//准备原材料, 不同的披萨不一样,因此,我们做成抽象方法
public void prepare();
}
b.定义披萨的种类,实现 Pizza 接口,如下定义了 GREEK、CHEESE 两种披萨。如果后续有新的种类可以实现 Pizza 接口,继续添加新的品种。
//希腊披萨
public class GreekPizza implements Pizza{
@Override
public void prepare() {
System.out.println(" 给希腊披萨 准备原材料 ");
}
}
//奶酪披萨
public class CheesePizza implements Pizza{
@Override
public void prepare() {
System.out.println(" 给制作奶酪披萨 准备原材料 ");
}
}
c.创建一个简单的工厂类对象 SimpleFactory
public class SimpleFactory {
//传入 orderType(种类) 返回对应的 Pizza 对象
public Pizza createPizza(String orderType) {
Pizza pizza = null;
//使用简单工厂模式
if (orderType.equals("greek")) {
//希腊披萨
pizza = new GreekPizza();
} else if (orderType.equals("cheese")) {
//奶酪披萨
pizza = new CheesePizza();
}
return pizza;
}
}
d.在应用代码 OrderPizza 中调用工厂类,获取用户需要的披萨对象。
public class OrderPizza {
//定义用户要获取的披萨类型
private static final String pizza = "greek";
public static void main(String[] args) {
//通过工厂获取希腊披萨
SimpleFactory simpleFactory = new SimpleFactory();
//greekPizza 就是我们需要获取的目标披萨
Pizza greekPizza = simpleFactory.createPizza(pizza);
//调用目标披萨的方法
greekPizza.prepare();
}
}
05.工厂方法模式
a.定义接口 Pizza
public interface Pizza {
public void prepare();
}
b.定义具体的披萨类 GreekPizza 和 CheesePizza
// 希腊披萨
public class GreekPizza implements Pizza {
@Override
public void prepare() {
System.out.println(" 给希腊披萨 准备原材料 ");
}
}
// 奶酪披萨
public class CheesePizza implements Pizza {
@Override
public void prepare() {
System.out.println(" 给奶酪披萨 准备原材料 ");
}
}
c.定义抽象工厂接口 PizzaFactory
public interface PizzaFactory {
Pizza createPizza();
}
d.定义具体工厂类 GreekPizzaFactory 和 CheesePizzaFactory
// 希腊披萨工厂
public class GreekPizzaFactory implements PizzaFactory {
@Override
public Pizza createPizza() {
return new GreekPizza();
}
}
// 奶酪披萨工厂
public class CheesePizzaFactory implements PizzaFactory {
@Override
public Pizza createPizza() {
return new CheesePizza();
}
}
e.在 OrderPizza 类中,通过使用不同的工厂来创建所需的披萨,
public class OrderPizza {
public static void main(String[] args) {
// 创建希腊披萨工厂
PizzaFactory greekFactory = new GreekPizzaFactory();
Pizza greekPizza = greekFactory.createPizza();
greekPizza.prepare();
// 创建奶酪披萨工厂
PizzaFactory cheeseFactory = new CheesePizzaFactory();
Pizza cheesePizza = cheeseFactory.createPizza();
cheesePizza.prepare();
}
}
06.抽象工厂模式
a.定义披萨接口 Pizza 和饮品接口 Drink
// 披萨接口
public interface Pizza {
void prepare();
}
// 饮品接口
public interface Drink {
void prepare();
}
b.定义具体的披萨类和饮品类
// 希腊披萨类
public class GreekPizza implements Pizza {
@Override
public void prepare() {
System.out.println(" 给希腊披萨准备原材料 ");
}
}
// 奶酪披萨类
public class CheesePizza implements Pizza {
@Override
public void prepare() {
System.out.println(" 给奶酪披萨准备原材料 ");
}
}
// 柠檬水饮品类
public class Lemonade implements Drink {
@Override
public void prepare() {
System.out.println(" 给柠檬水准备原材料 ");
}
}
// 可乐饮品类
public class Cola implements Drink {
@Override
public void prepare() {
System.out.println(" 给可乐准备原材料 ");
}
c.定义抽象工厂接口 PizzaFactory
public interface PizzaFactory {
Pizza createPizza();
Drink createDrink();
}
d.定义具体工厂类
// 希腊披萨工厂类
public class GreekPizzaFactory implements PizzaFactory {
@Override
public Pizza createPizza() {
return new GreekPizza();
}
@Override
public Drink createDrink() {
return new Lemonade(); // 希腊披萨配柠檬水
}
}
// 奶酪披萨工厂类
public class CheesePizzaFactory implements PizzaFactory {
@Override
public Pizza createPizza() {
return new CheesePizza();
}
@Override
public Drink createDrink() {
return new Cola(); // 奶酪披萨配可乐
}
}
e.客户端代码OrderPizza
public class OrderPizza {
public static void main(String[] args) {
// 创建希腊披萨和对应饮品
PizzaFactory greekFactory = new GreekPizzaFactory();
Pizza greekPizza = greekFactory.createPizza();
Drink lemonade = greekFactory.createDrink();
greekPizza.prepare();
lemonade.prepare();
// 创建奶酪披萨和对应饮品
PizzaFactory cheeseFactory = new CheesePizzaFactory();
Pizza cheesePizza = cheeseFactory.createPizza();
Drink cola = cheeseFactory.createDrink();
cheesePizza.prepare();
cola.prepare();
}
}
3.7 建造者模式:创建型
00.介绍
a.概念
又叫生成器模式,是一种对象构建模式。它可以将复杂对象的建造过程抽象出来(抽象类别)
使这个抽象过程的不同实现方法可以构造出不同表现(属性)的对象
b.四个角色
Product(产品角色):包含多个组成部件的复杂对象(产品对象)
Builder(抽象建造者):创建一个包含Product 各个子部件的抽象方法或接口,通常还包含了一个返回复杂产品的方法
ConcreteBuilder(具体建造者):实现Builder接口,构建和装备各个子部件的具体实现
Director(指挥者):构建一个使用 Builder 接口的对象。它主要作用是用于创建一个复杂的对象。在指挥者中不涉及具体产品的信息
主要分两个作用,一是隔离客户与对象的生产过程,二是负责控制对象的生产过程
01.示例
a.创建 Product 产品角色
public class Product {
private String CPU;
//主板 mainboard
private String mainboard;
//内存 memory
private String memory;
//.....略
//生成get set 方法 略
}
b.抽象建造者对象
public abstract class Builder {
//组合 产品对象
protected Product product = new Product();
//抽象方法
public abstract void buildCpu();
public abstract void buildMainboard();
public abstract void buildMemory();
//返回一个产品对象
public Product getResult() {
return product;
}
}
c.具体建造者对象:一般会有多个这种对象,都实现 Builder 抽象类。
public class ConcreteBuilder_huawei extends Builder{
@Override
public void buildCpu() {
product.setCPU("华为CPU");
}
@Override
public void buildMainboard() {
product.setMainboard("华为主板");
}
@Override
public void buildMemory() {
product.setMemory("华为内存");
}
}
d.指挥者类,主要构建组装的流程:返回的是产品对象
public class Director {
//需要将抽象类聚合进来
Builder builder = null;
//创建一个构造器 调用时传入具体的实现类
public Director(Builder builder) {
this.builder = builder;
}
//添加set 方法 用户可以通过此方法修改已有的 建造者对象
public void setBuilder(Builder builder) {
this.builder = builder;
}
//笔记本的组成流程 返回的是产品类
public Product pack_pc() {
builder.buildMainboard();
builder.buildCpu();
builder.buildMemory();
return builder.getResult();
}
}
e.客户端通过指挥者类调用需要的品牌电脑
public class Client {
public static void main(String[] args) {
//创建需要的电脑子部件——例如我们要组装的是 华为
ConcreteBuilder_huawei huawei = new ConcreteBuilder_huawei();
//调用指挥者类,将需要的品牌传入,根据控制着中的流程进行组装
Director director = new Director(huawei);
//调用组装方法,返回产品
Product pack_pc = director.pack_pc();
//查看输入的结果
System.out.println(pack_pc.toString());
//结果为:Product [CPU=华为CPU, mainboard=华为主板, memory=华为内存]
}
}
02.示例
a.定义Computer类
public class Computer {
// 定义计算机的属性
private String CPU;
private String RAM;
private String storage;
private String GPU;
private String OS;
// 私有构造函数,只能通过 Builder 创建
private Computer(Builder builder) {
this.CPU = builder.CPU;
this.RAM = builder.RAM;
this.storage = builder.storage;
this.GPU = builder.GPU;
this.OS = builder.OS;
}
// Getter 方法
public String getCPU() {
return CPU;
}
public String getRAM() {
return RAM;
}
public String getStorage() {
return storage;
}
public String getGPU() {
return GPU;
}
public String getOS() {
return OS;
}
// 重写 toString 方法,方便打印对象信息
@Override
public String toString() {
return "Computer{" +
"CPU='" + CPU + '\'' +
", RAM='" + RAM + '\'' +
", storage='" + storage + '\'' +
", GPU='" + GPU + '\'' +
", OS='" + OS + '\'' +
'}';
}
// 静态内部类 Builder
public static class Builder {
// 与 Computer 类中相同的属性
private String CPU;
private String RAM;
private String storage;
private String GPU;
private String OS;
// 构建方法,返回当前 Builder 对象(实现链式调用)
public Builder setCPU(String CPU) {
this.CPU = CPU;
return this;
}
public Builder setRAM(String RAM) {
this.RAM = RAM;
return this;
}
public Builder setStorage(String storage) {
this.storage = storage;
return this;
}
public Builder setGPU(String GPU) {
this.GPU = GPU;
return this;
}
public Builder setOS(String OS) {
this.OS = OS;
return this;
}
// 构建 Computer 对象
public Computer build() {
return new Computer(this);
}
}
}
b.使用建造者模式构建Computer对象
public class Main {
public static void main(String[] args) {
// 使用建造者模式创建第一个计算机对象
Computer gamingPC = new Computer.Builder()
.setCPU("Intel i9")
.setRAM("32GB")
.setStorage("1TB SSD")
.setGPU("NVIDIA RTX 3080")
.setOS("Windows 11")
.build();
// 使用建造者模式创建第二个计算机对象
Computer officePC = new Computer.Builder()
.setCPU("Intel i5")
.setRAM("16GB")
.setStorage("512GB SSD")
.setOS("Windows 10")
.build();
// 打印对象信息
System.out.println(gamingPC);
System.out.println(officePC);
}
}
3.8 策略模式:行为型
00.介绍
a.概念
策略模式是准备一组算法,并将这组算法封装到一系列的策略类里面,作为一个抽象策略类的子类
策略模式的重心不是如何实现算法,而是如何组织这些算法,从而让程序结构更加灵活,具有更好的维护性和扩展性
b.四个角色
抽象策略(Strategy)类:定义一个公共接口,各种不同的算法以不同的方式实现这个接口,一般使用接口或者抽象类
具体策略(ConcreteStrategy)类:实现了抽象策略定义的接口,提供具体的算法实现
上下文(Context)类:持有一个具体的策略类引l用,最终给客户端调用
c.场景
当你有很多类似的类,但它们执行某些行为的方式不同时,请使用此策略
使用该模式将类的业务逻辑与算法的实现细节隔离开来,这些算法在逻辑上下文中可能不那么重要
当你的类具有大量的条件运算符,并且在同一算法的不同变体之间切换时,请使用此模式
d.应用
抽象策略类:Comparator 接口
具体策略类:可以根据自己的需求,实现不同的升序和降序等策略
01.示例
a.交通方式的抽象策略角色
//交通方式的 抽象策略
public interface TripMode {
public void goOut();
}
b.具体策略角色(火车、汽车、飞机)
//具体实现类一 : 飞机
public class ByCar implements TripMode{
@Override
public void goOut() {
System.out.println("飞机出行,最快的选择");
}
}
//具体实现类二 : 火车
public class ByTrain implements TripMode{
@Override
public void goOut() {
System.out.println("火车出行,最安全的选择");
}
}
//具体实现类三 : 自驾车
public class SelfDrive implements TripMode{
@Override
public void goOut() {
System.out.println("旅游就的是自驾车");
}
}
c.我们就举一个最安全的出行实例:组合抽象策略类,实现了具体使用类与策略类的分离
package stratege;
//注重安全的人,都会选择火车
public class Safe {
//组合接口
private TripMode train;
public Safe() {
//组合一个火车实例
train = new ByTrain();
}
//客户端也可以根据情况进行重新赋值
public void setTrain(TripMode train) {
this.train = train;
}
public void toBeijing() {
//去北京选择的工具
train.goOut();
}
}
d.客户端直接调用即可,或者使用 set 对其策略进行重置
public class Client {
public static void main(String[] args) {
Safe safe = new Safe();
//火车出行,最安全的选择
safe.toBeijing();
}
}
3.9 观察者模式:行为型
00.介绍
a.概念
定义对象间的一种一对多依赖关系,使得每当一个对象状态发生改变时,其相关依赖对象皆得到通知并被自动更新
观察者模式又叫做发布-订阅(Publish/Subscribe)模式、模型-视图(Model/View)模式、源-监听器(Source/Listener)模式或从属者(Dependents)模式
b.四个角色
抽象主题角色(Subject):也叫抽象目标类,它提供了一个用于保存观察者对象的聚集类和增加、删除观察者对象的方法,以及通知所有观察者的抽象方法
具体主题角色(Concrete Subject):也叫具体目标类,它实现了抽象目标中的通知方法,当具体主题的内部状态发生改变时,通知所有注册过的观察者对象
抽象观察者角色(Observer):它是一个抽象类或接口,它包含了一个更新自己的抽象方法,当接到具体主题的更改通知时被调用
具体观察者角色(Concrete Observer):实现抽象观察者中定义的抽象方法,以便在得到目标的更改通知时更新自身的状态
c.应用
Spring通过ApplicationEvent和ApplicationListener两个核心接口实现了观察者模式
事件(Event):事件是继承自ApplicationEvent的对象,用来描述某个发生的动作或状态变化
监听器(Listener):监听器是实现ApplicationListener接口的对象,用来监听特定类型的事件,并在事件触发时进行响应
事件发布器(Publisher):Spring中的ApplicationContext充当事件发布器的角色,提供了publishEvent()方法来发布事件。发布器会将事件广播给所有的监听器
01.示例
a.抽象主题角色(Subject):包含对观察者对象的增加、删除和通知等方法的抽象接口。
//抽象主题类
public interface ISubject {
//添加观察者对象
public void addObserver(IObserver o);
//删除观察者对象
public void removeObserver(IObserver o);
//通知方法
public void notifyObserver();
}
b.具体主题角色(Concrete Subject):需要创建一个集合,存放观察者对象。并实现 ISubject 接口,并实现增删和通知方法。同时添加修改数据的方法 setDate。
public class SubjectImpl implements ISubject{
private String name;//博客名
private String content;//博客内容
private String type;//博客类型
public void setDate(String name,String content,String type) {
this.name=name;
this.content=content;
this.type = type;
}
//定义一个集合存放 观察者对象
List<IObserver> observers;
//构造器
public SubjectImpl() {
observers = new ArrayList<IObserver>();
}
//添加
@Override
public void addObserver(IObserver o) {
observers.add(o);
}
//删除
@Override
public void removeObserver(IObserver o) {
observers.remove(o);
}
@Override
public void notifyObserver() {
for (IObserver iObserver : observers) {
if(iObserver != null) {
iObserver.update(name,content,type);
}
}
}
}
c.抽象观察者角色(Observer):抽取观察者们的共同方法 update 获取目标对象传递过来的信息。
//抽象观察者
public interface IObserver {
//接受主题类的信息
public void update(String name,String content,String type);
}
d.具体观察者角色(Concrete Observer):实现抽象的观察者角色,并获取目标对象传递的值,进行逻辑处理。
public class ObserverImpl_A implements IObserver{
@Override
public void update(String name, String content, String type) {
//对接受到的信息进行逻辑处理
System.out.println("===观察者A====");
System.out.println("***博客名称 : " + name + "***");
System.out.println("***博客内容: " + content + "***");
System.out.println("***博客类型: " + type + "***");
}
}
e.客户端:创建目标对象和观察者对象,并将观察者对象添加到目标对象的观察者集合中,并进行通知。
public class Client {
public static void main(String[] args) {
//目标对象 博客博主
SubjectImpl subjectImpl = new SubjectImpl();
//创建观察者对象 用户A
ObserverImpl_A observerImpl_A = new ObserverImpl_A();
//将观察对象 关注 表表对象
subjectImpl.addObserver(observerImpl_A);
//博客开始更新博客
subjectImpl.setDate("Java设计模式", "访问者模式", "技术类");
//通知观察者 关注的用户门
subjectImpl.notifyObserver();
}
}
02.示例
a.核心
a.使用1
观察者模式用于在用户注册成功后,自动触发一系列操作,比如发送优惠券和发送邮件
这些后续操作由观察者对象实现,并在注册成功后逐一调用
b.使用2
观察者模式的核心在于,将用户注册成功作为事件,注册成功后通知一系列观察者执行各自的逻辑
c.使用3
userRegisterObservers 是一个List,用于存储所有注册成功的观察者对象
在register方法中,当用户注册成功时,会通过遍历userRegisterObservers列表
逐个调用每个观察者的handleRegisterSuccess方法,以通知各观察者进行后续处理
b.优化前
public boolean register (String username, String passWord, String email) {
// 1.校验用户名是否已重复
if (checkUserNameExists(username)) {
thrownewRuntimeException("用户名已存在,请换一个用户名");
}
// 2.新增一条用户数据
String userId = userDao.adduser(username, passWord);
// 3.注册成功送100元代金券
if (null != userId && !"".equals(userId)) {
// 3.1新增100元代金券
voucherDao.addVoucher(userId, "100");
//3.2发送邮件
String emaiLMessage = "恭喜你注册成功,已发放10o元代金券,请前往个人中心领取!";
sendEmailService.sendEmail(email, emaiLMessage);
}
return true;
}
c.优化后
a.调用类
@Resource
private VocherDao vocherDao;
@Resource
private SendEmailService sendEmailService;
public static final List<UserRegisterObserver> userRegisterObservers = new ArrayList<>();
static {
userRegisterObservers.add(new RegisterVocherObserver());
userRegisterObservers.add(new RegisterEmailObserver());
}
public boolean register (String username, String passWord, String email) {
// 1.校验用户名是否已重复
if (checkUserNameExists(username)) {
thrownewRuntimeException("用户名已存在,请换一个用户名");
}
// 2.新增一条用户数据
String userId = userDao.adduser(username, passWord);
// 3.注册成功送100元代金券
for (UserRegisterObserver observer : userRegisterObservers) {
observer.handleRegisterSuccess(userId);
}
return true;
}
b.接口
public interface UserRegisterObserver {
void handleRegisterSuccess(String userId);
}
c.实现类
@Service
public class RegisterVocherObserver implements UserRegisterObserver {
@Override
public void handleRegisterSuccess(String userId) {
System.out.println("注册成功,发送优惠券!");
}
}
-----------------------------------------------------------------------------------------------------
@Service
public class RegisterEmailObserver implements UserRegisterObserver {
@Override
public void handleRegisterSuccess(String userId) {
System.out.println("注册成功,发送邮件!");
}
}
3.10 责任链模式:行为型
00.介绍
a.概念
为请求创建了一个接收者对象的链。这种模式给予请求的类型,对请求的发送者和接收者进行解耦
这种类型的设计模式属于行为型模式。在这种模式中,通常每个接收者都包含对另一个接收者的引用
如果一个对象不能处理该请求,那么它会把相同的请求传给下一个接收者,依此类推
b.四个角色
抽象处理者(Handler)角色:定义一个处理请求的抽象类或接口,包含抽象处理方法和自己(传入下一个子类时赋值)
具体处理者(Concrete Handler)角色:实现抽象处理者的处理方法,判断能否处理本次请求,如果可以处理请求则处理,否则将该请求转给它的后继者
请求对象(Request):包含很多请求属性
客户类(Client)角色:创建处理链,并向链头的具体处理者对象提交请求,它不关心处理细节和请求的传递过程
c.优点
降低了对象之间的耦合度。该模式使得一个对象无须知道到底是哪一个对象处理其请求以及链的结构,发送者和接收者也无须拥有对方的明确信息
增强了系统的可扩展性。可以根据需要增加新的请求处理类,满足开闭原则
增强了给对象指派职责的灵活性。当工作流程发生变化,可以动态地改变链内的成员或者调动它们的次序,也可动态地新增或者删除责任
责任链简化了对象之间的连接。每个对象只需保持一个指向其后继者的引用,不需保持其他所有处理者的引用,这避免了使用众多的if或者ifelse
责任分担。每个类只需要处理自己该处理的工作,不该处理的传递给下一个对象完成,明确各类的责任范围,符合类的单一职责原则
d.缺点
不能保证每个请求一定被处理。由于一个请求没有明确的接收者,所以不能保证它一定会被处理,该请求可能一直传到链的末端都得不到处理
对比较长的职责链,请求的处理可能涉及多个处理对象,系统性能将受到一定影响
职责链建立的合理性要靠客户端来保证,增加了客户端的复杂性,可能会由于职责链的错误设置而导致系统出错,如可能会造成循环调用
e.应用场景
1.有多个对象可以处理一个请求,哪个对象处理该请求由运行时刻自动确定
2.可动态指定一组对象处理请求,或添加新的处理者
3.在不明确指定请求处理者的情况下,向多个处理者中的一个提交请求
f.应用
职责链模式在SpringMVC框架应用中有使用
SpringMVC 请求的流程图中,执行了拦截器方法 intercepto.preHandler等等
在处理 SpringMVC 请求时,使用到了职责链模式和适配器模式
HandlerExecutionChain 主要负责的是请求拦截器的执行和请求处理,但是它本身不处理请求,只是将请求分配给链上注册处理器执行
这是职责链的实现方式,减少职责链本身与处理逻辑之间的耦合,规范了处理流程。HandlerExecutionChain 维护了Handlerlnterceptor的集合,可以向其中注册相应的拦截器
01.示例
a.需求
学校OA系统的采购审批项目:采购员采购教学器材费用审批规则
如果金额小于等于10000,有学校主任审批
如果金额小于等于30000,由院长审批
如果金额大于 30000,由校长审批
b.请求者类(普通类): 包含两个属性(编号:id 和价格:price)
public class Request {
//请求编号
private int id;
//请求价格
private float price;
/**
* @param id
* @param price
*/
public Request(int id, float price) {
super();
this.id = id;
this.price = price;
}
public int getId() {
return id;
}
public float getPrice() {
return price;
}
}
c.抽象处理者(Handler)类:特点是包含了一个自己的属性,有点像装饰者模式。用于传入自己的子类,通过 set方法。还有一个抽象的业务处理方法 process
public abstract class Handler {
//组合一个自己,并创建一个 set 方法,由子类使用
Handler handler;
//处理者的名称
String name;
/**
* @param name
* 构造器,传入名称即可
*/
public Handler(String name) {
super();
this.name = name;
}
public void setHandler(Handler handler) {
this.handler = handler;
}
//业务处理方法,抽象的
public abstract void process(Request request);
}
d.具体处理者(Concrete Handler)类:主任审批类。存在多个相似的类,都继承自抽象处理者。实现抽象的 process 方法,如果能处理则处理,否则抛给其他子类
public class CollegeHandler extends Handler{
private static final float PRICE_1 = 10000f;
public CollegeHandler(String name) {
super(name);
}
//如果金额 小于等于 10000,有学校主任审批
@Override
public void process(Request request) {
if(request.getPrice() <= PRICE_1) {
System.out.println("请求编号: "+request.getId()+"被"+name + "处理");
}else {
handler.process(request);
}
}
}
e.具体处理者(Concrete Handler)类:院长审批。与上述的住人审批基本相同,区别就是业务处理方法 process 的处理条件不同而已。处理不了就抛给父类的 Handler 对象
public class DepartmentHandler extends Handler{
private static final float PRICE_1 = 10000f;
private static final float PRICE_3 = 30000f;
public DepartmentHandler(String name) {
super(name);
}
//如果金额 小于等于 30000,由院长审批;
@Override
public void process(Request request) {
if(request.getPrice() > PRICE_1 && request.getPrice() <= PRICE_3) {
System.out.println("请求编号: "+request.getId()+"被"+name + "处理");
}else {
handler.process(request);
}
}
}
f.客户类(Client)类:将请求对象和处理类进行关联。特点是将多个处理类的关系进行了链式组装
public class Client {
public static void main(String[] args) {
//创建请求对象
Request request = new Request(1, 300001);
//创建各个处理者
DepartmentHandler departmentHandler = new DepartmentHandler("学校主任");
CollegeHandler collegeHandler = new CollegeHandler("院长");
SchoolMasterHandler schoolMasterHandler = new SchoolMasterHandler("校长");
//对处理者的链进行组装(注意:这里组装成一个环形)
//可能有人认为,会不会出现死循环,这个应该是业务代码考虑的问题。如果有不能处理的情况应该自行抛出错误
departmentHandler.setHandler(collegeHandler);
collegeHandler.setHandler(schoolMasterHandler);
schoolMasterHandler.setHandler(departmentHandler);
//可以随便调用一个处理者来处理对象
collegeHandler.process(request);
departmentHandler.process(request);
/** 输出展示:请求编号: 1被校长处理
* 请求编号: 1被校长处理
*/
}
}
02.示例
a.核心
责任链模式通过将一系列独立的处理器
(例如:LengthCheckHandler、SensitiveWordCheckHandler、ImageCheckHandler)按照顺序组织到链中
使请求对象可以在处理器链中逐个传递和处理。每个处理器在接收到请求后,可以选择处理或跳过
责任链模式的核心是将请求沿着链条传递,直到被某个处理器处理或链条结束
b.优化前
@RestController
public class ArticleController {
public Result<String> publish(@RequestBody ArticlePublishRequest req) {
//1.长度校验,长度在[1,10000]个字符之间
this.checkLength(req);
//2.敏感词校验
this.checkSensitiveWords(req);
//3.图片合法性校验
this.checkImage(req);
return ResultUtils.success("发布成功");
}
}
c.优化后
a.定义责任链处理器接口
public interface ArticlePublishHandler {
void handle(ArticlePublishRequest request) throws Exception;
}
b.实现具体的校验处理器
a.长度校验处理器
public class LengthCheckHandler implements ArticlePublishHandler {
@Override
public void handle(ArticlePublishRequest request) throws Exception {
String content = request.getContent();
if (content == null || content.length() < 1 || content.length() > 10000) {
throw new IllegalArgumentException("文章内容长度必须在1到10000字符之间");
}
}
}
b.敏感词校验处理器
public class SensitiveWordCheckHandler implements ArticlePublishHandler {
@Override
public void handle(ArticlePublishRequest request) throws Exception {
// 假设有一个敏感词检测的工具类
if (SensitiveWordUtils.containsSensitiveWords(request.getContent())) {
throw new IllegalArgumentException("文章内容包含敏感词");
}
}
}
c.责任链的实现
public class ArticlePublishHandlerChain {
private final List<ArticlePublishHandler> handlers = new ArrayList<>();
public ArticlePublishHandlerChain addHandler(ArticlePublishHandler handler) {
handlers.add(handler);
return this;
}
public void handle(ArticlePublishRequest request) throws Exception {
for (ArticlePublishHandler handler : handlers) {
handler.handle(request);
}
}
}
d.修改控制器代码
@RestController
public class ArticleController {
private final ArticlePublishHandlerChain handlerChain;
public Result<String> publish(@RequestBody ArticlePublishRequest req) {
try {
// 使用责任链来处理校验
handlerChain = new ArticlePublishHandlerChain()
.addHandler(new LengthCheckHandler())
.addHandler(new SensitiveWordCheckHandler())
.addHandler(new ImageCheckHandler())
.handle(req);
return ResultUtils.success("发布成功");
} catch (Exception e) {
return ResultUtils.failure(e.getMessage());
}
}
}
4 阿里规约
4.1 对象分类

4.2 手册汇总1
01.编程规约
01.命名风格
s.【参考】各层命名规约:
A)Service / DAO 层方法命名规约:
1)获取单个对象的方法用 get 做前缀。
2)获取多个对象的方法用 list 做前缀,复数结尾,如:listObjects
3)获取统计值的方法用 count 做前缀。
4)插入的方法用 save / insert 做前缀。
5)删除的方法用 remove / delete 做前缀。
6)修改的方法用 update 做前缀。
B)领域模型命名规约:
1)数据对象:xxxDO,xxx 即为数据表名。
2)数据传输对象:xxxDTO,xxx 为业务领域相关的名称。
3)展示对象:xxxVO,xxx 一般为网页名称。
4)POJO 是 DO / DTO / BO / VO 的统称,禁止命名成 xxxPOJO。
02.常量定义
b.【强制】long 或 Long 赋值时,数值后使用大写 L,不能是小写 l,小写容易跟数字混淆,造成误解。
说明:public static final Long NUM = 2l; 写的是数字的 21,还是 Long 型的 2?
c.【强制】浮点数类型的数值后缀统一为大写的 D 或 F。
正例:public static final double HEIGHT = 175.5D;
public static final float WEIGHT = 150.3F;
04.OOP规约
f.【强制】Object 的 equals 方法容易抛空指针异常,应使用常量或确定有值的对象来调用 equals。
正例:"test".equals(param);
反例:param.equals("test");
说明:推荐使用 JDK7 引入的工具类 java.util.Objects#equals(Object a, Object b)
h.【强制】任何货币金额,均以最小货币单位且为整型类型进行存储。
i.【强制】浮点数之间的等值判断,基本数据类型不能使用 == 进行比较,包装数据类型不能使用 equals进行判断。
j.【强制】BigDecimal 的等值比较应使用 compareTo() 方法,而不是 equals() 方法。
说明:equals() 方法会比较值和精度(1.0 与 1.00 返回结果为 false),而 compareTo() 则会忽略精度。
l.【强制】禁止使用构造方法 BigDecimal(double) 的方式把 double 值转化为 BigDecimal 对象。
说明:BigDecimal(double) 存在精度损失风险,在精确计算或值比较的场景中可能会导致业务逻辑异常。如:BigDecimal g = new BigDecimal(0.1F);实际的存储值为:0.100000001490116119384765625
正例:优先推荐入参为 String 的构造方法,或使用 BigDecimal 的 valueOf 方法,此方法内部其实执行了 Double 的
toString,而 Double 的 toString 按 double 的实际能表达的精度对尾数进行了截断。
BigDecimal recommend1 = new BigDecimal("0.1");
BigDecimal recommend2 = BigDecimal.valueOf(0.1);
w.【推荐】循环体内,字符串的连接方式,使用 StringBuilder 的 append 方法进行扩展。
反例:
String str = "start";
for (int i = 0; i < 100; i++) {
str = str + "hello";
}
说明:反编译出的字节码文件显示每次循环都会 new 出一个 StringBuilder 对象,然后进行 append 操作,最后通过toString() 返回 String 对象,造成内存资源浪费。
06.集合处理
a.【强制】关于 hashCode 和 equals 的处理,遵循如下规则:
1)只要覆写 equals,就必须覆写 hashCode。
2)因为 Set 存储的是不重复的对象,依据 hashCode 和 equals 进行判断,所以 Set 存储的对象必须覆写这两种方法。
3)如果自定义对象作为 Map 的键,那么必须覆写 hashCode 和 equals。
说明:String 因为覆写了 hashCode 和 equals 方法,所以可以愉快地将 String 对象作为 key 来使用。
b.【强制】判断所有集合内部的元素是否为空,使用 isEmpty() 方法,而不是 size() == 0 的方式。
说明:在某些集合中,前者的时间复杂度为 O(1),而且可读性更好。
正例:
Map<String, Object> map = new HashMap<>(16);
if (map.isEmpty()) {
System.out.println("no element in this map.");
}
e.【强制】ArrayList 的 subList 结果不可强转成 ArrayList,否则会抛出 ClassCastException 异常:java.util.RandomAccessSubList cannot be cast to java.util.ArrayList。
说明:subList() 返回的是 ArrayList 的内部类 SubList,并不是 ArrayList 本身,而是 ArrayList 的一个视图,对于SubList 的所有操作最终会反映到原列表上。
f.【强制】使用 Map 的方法 keySet() / values() / entrySet() 返回集合对象时,不可以对其进行添加元素操作,否则会抛出 UnsupportedOperationException 异常。
h.【强制】在 subList 场景中,高度注意对父集合元素的增加或删除,均会导致子列表的遍历、增加、删除产生 ConcurrentModificationException 异常。
说明:抽查表明,90% 的程序员对此知识点都有错误的认知。
k.【强制】使用工具类 Arrays.asList() 把数组转换成集合时,不能使用其修改集合相关的方法,它的 add / remove / clear 方法会抛出 UnsupportedOperationException 异常。
q.【推荐】使用 entrySet 遍历 Map 类集合 KV,而不是 keySet 方式进行遍历。
说明:keySet 其实是遍历了 2 次,一次是转为 Iterator 对象,另一次是从 hashMap 中取出 key 所对应的 value。而entrySet 只是遍历了一次就把 key 和 value 都放到了 entry 中,效率更高。如果是 JDK8,使用 Map.forEach 方法。
正例:values() 返回的是 V 值集合,是一个 list 集合对象;keySet() 返回的是 K 值集合,是一个 Set 集合对象;entrySet() 返回的是 K-V 值组合的 Set 集合。
08.控制语句
a.【强制】在一个 switch 块内,每个 case 要么通过 continue / break / return 等来终止,要么注释说明
程序将继续执行到哪一个 case 为止;在一个 switch 块内,都必须包含一个 default 语句并且放在最
后,即使它什么代码也没有。
说明:注意 break 是退出 switch 语句块,而 return 是退出方法体。
10.前后端规约
b.【强制】前后端数据列表相关的接口返回,如果为空,则返回空数组[]或空集合{}。
说明:此条约定有利于数据层面上的协作更加高效,减少前端很多琐碎的 null 判断。
d.【强制】在前后端交互的 JSON 格式数据中,所有的 key 必须为小写字母开始的 lowerCamelCase风格,符合英文表达习惯,且表意完整。
正例:errorCode / errorMessage / assetStatus / menuList / orderList / configFlag
反例:ERRORCODE / ERROR_CODE / error_message / error-message / errormessage
l.【推荐】服务端返回的数据,使用 JSON 格式而非 XML。
说明:尽管 HTTP 支持使用不同的输出格式,例如纯文本,JSON,CSV,XML,RSS 甚至 HTML。如果我们使用的面向用户的服务,应该选择 JSON 作为通信中使用的标准数据交换格式,包括请求和响应。此外,application/JSON 是一种通用的 MIME 类型,具有实用、精简、易读的特点。
05.MySQL数据库
01.建表规约
a.【强制】表达是与否概念的字段,必须使用 is_xxx 的方式命名,数据类型是 unsigned tinyint(1 表示是,0 表示否)。
注意:POJO 类中的任何布尔类型的变量,都不要加 is 前缀,所以,需要在<resultMap>设置从 is_xxx 到 Xxx 的映射关系。数据库表示是与否的值,使用 tinyint 类型,坚持 is_xxx 的命名方式是为了明确其取值含义与取值范围。
说明:任何字段如果为非负数,必须是 unsigned。
正例:表达逻辑删除的字段名 is_deleted,1 表示删除,0 表示未删除。
e.【强制】主键索引名为 pk_字段名;唯一索引名为 uk_字段名;普通索引名则为 idx_字段名。
说明:pk_即 primary key;uk_即 unique key;idx_即 index 的简称。
f.【强制】小数类型为 decimal,禁止使用 float 和 double。
说明:在存储的时候,float 和 double 都存在精度损失的问题,很可能在比较值的时候,得到不正确的结果。如果存储的数据范围超过 decimal 的范围,建议将数据拆成整数和小数并分开存储。
g.【强制】如果存储的字符串长度几乎相等,使用 char 定长字符串类型。
h.【强制】varchar 是可变长字符串,不预先分配存储空间,长度不要超过 5000,如果存储长度大于此值,定义字段类型为 text,独立出来一张表,用主键来对应,避免影响其它字段索引率。
i.【强制】表必备三字段:id,create_time,update_time。
说明:其中 id 必为主键,类型为 bigint unsigned、单表时自增、步长为 1。create_time,update_time 的类型均为datetime 类型,如果要记录时区信息,那么类型设置为 timestamp。
j.【强制】在数据库中不能使用物理删除操作,要使用逻辑删除。
说明:逻辑删除在数据删除后可以追溯到行为操作。不过会使得一些情况下的唯一主键变得不唯一,需要根据情况来酌情解决。
02.索引规约
a.【强制】业务上具有唯一特性的字段,即使是组合字段,也必须建成唯一索引。
说明:不要以为唯一索引影响了 insert 速度,这个速度损耗可以忽略,但提高查找速度是明显的;另外,即使在应用层
做了非常完善的校验控制,只要没有唯一索引,根据墨菲定律,必然有脏数据产生。
b.【强制】超过三个表禁止 join。需要 join 的字段,数据类型保持绝对一致;多表关联查询时,保证被关联的字段需要有索引。
说明:即使双表 join 也要注意表索引、SQL 性能。
j.【推荐】防止因字段类型不同造成的隐式转换,导致索引失效。
03.SQL语句
a.【强制】不要使用 count(列名) 或 count(常量) 来替代 count(*),count(*) 是 SQL92 定义的标准统计行数的语法,跟数据库无关,跟 NULL 和非 NULL 无关。
说明:count(*) 会统计值为 NULL 的行,而 count(列名) 不会统计此列为 NULL 值的行。
b.【强制】count(distinct col) 计算该列除 NULL 之外的不重复行数,注意 count(distinct col1 , col2) 如果其中一列全为 NULL,那么即使另一列有不同的值,也返回为 0。
g.【强制】禁止使用存储过程,存储过程难以调试和扩展,更没有移植性。
j.【推荐】SQL 语句中表的别名前加 as,并且以 t1、t2、t3、...的顺序依次命名。
说明:
1)别名可以是表的简称,或者是依照表在 SQL 语句中出现的顺序,以 t1、t2、t3 的方式命名。
2)别名前加 as 使别名更容易识别。
正例:select t1.name from first_table as t1 , second_table as t2 where t1.id = t2.id;
l.【参考】因国际化需要,所有的字符存储与表示,均采用 utf8mb4 字符集,字符计数方法需要注意。
说明:
SELECT LENGTH("轻松工作");--返回为 12
SELECT CHARACTER_LENGTH("轻松工作");--返回为 4
表情需要用 utf8mb4 来进行存储,注意它与 utf8 编码的区别。
m.【参考】TRUNCATE TABLE 比 DELETE 速度快,且使用的系统和事务日志资源少,但 TRUNCATE无事务且不触发 trigger,有可能造成事故,故不建议在开发代码中使用此语句。
说明:TRUNCATE TABLE 在功能上与不带 WHERE 子句的 DELETE 语句相同。
04.ORM映射
a.【强制】在表查询中,一律不要使用 * 作为查询的字段列表,需要哪些字段必须明确写明。
说明:
1)增加查询分析器解析成本。
2)增减字段容易与 resultMap 配置不一致。
3)无用字段增加网络消耗,尤其是 text 类型的字段。
b.【强制】POJO 类的布尔属性不能加 is,而数据库字段必须加 is_,要求在 resultMap 中进行字段与属性之间的映射。
说明:参见定义 POJO 类以及数据库字段定义规定,在 sql.xml 增加映射,是必须的。
d.【强制】sql.xml 配置参数使用:#{},#param# 不要使用 ${} 此种方式容易出现 SQL 注入。
f.【强制】不允许直接拿 HashMap 与 Hashtable 作为查询结果集的输出。
反例:某同学为避免写一个<resultMap>xxx</resultMap>,直接使用 Hashtable 来接收数据库返回结果,结果出现日常是把 bigint 转成 Long 值,而线上由于数据库版本不一样,解析成 BigInteger,导致线上问题。
i.【参考】@Transactional 事务不要滥用。事务会影响数据库的 QPS,另外使用事务的地方需要考虑各方面的回滚方案,包括缓存回滚、搜索引擎回滚、消息补偿、统计修正等。
99.强制使用DATETIME类型而非TIMESTAMP的原因
a.时区问题
TIMESTAMP 是一个带有时区的类型,它会根据数据库服务器的时区和存储的时区进行转换。这意味着在不同的环境中(如开发、测试和生产环境),同一个时间值可能会因时区不同而导致不同的结果,增加了处理上的复杂性。
DATETIME 是无时区的类型,存储的是具体的时间值,不受时区影响,因此在不同环境中表现一致。
b.存储限制
TIMESTAMP 在某些数据库中(如 MySQL)有存储限制,通常只能存储到 2038 年(Unix 时间戳的限制),而 DATETIME 可以存储到 9999 年,适用范围更广。
c.兼容性问题
不同数据库系统对于 TIMESTAMP 的实现可能存在差异,使用 DATETIME 可以在不同数据库之间提供更好的兼容性。
d.数据迁移与备份
在进行数据迁移或备份时,TIMESTAMP 的时间转换可能会引起混淆或错误,而 DATETIME 不会,因为它是固定的。
06.工程结构
01.应用分层
c.【参考】分层领域模型规约
DO(Data Object):此对象与数据库表结构一一对应,通过 DAO 层向上传输数据源对象。
DTO(Data Transfer Object):数据传输对象,Service 或 Manager 向外传输的对象。
BO(Business Object):业务对象,可以由 Service 层输出的封装业务逻辑的对象。
Query:数据查询对象,各层接收上层的查询请求。注意超过 2 个参数的查询封装,禁止使用 Map 类来传输。
VO(View Object):显示层对象,通常是 Web 向模板渲染引擎层传输的对象。
02.二方库依赖
略
03.服务器
a.【强制】调用远程操作必须有超时设置。
说明:类似于 HttpClient 的超时设置需要自己明确去设置 Timeout。根据经验表明,无数次的故障都是因为没有设置超时时间。
b.【推荐】客户端设置远程接口方法的具体超时时间(单位 ms)
超时设置生效顺序一般为:1)客户端 Special Method;2)客户端接口级别;3)服务端 Special Method;4)服务端接口级别。
4.3 手册汇总2
01.编程规约
01.命名风格
e.【强制】方法名、参数名、成员变量、局部变量都统一使用 lowerCamelCase 风格。
正例:localValue / getHttpMessage() / inputUserId
f.【强制】常量命名应该全部大写,单词间用下划线隔开,力求语义表达完整清楚,不要嫌名字长。
正例:MAX_STOCK_COUNT / CACHE_EXPIRED_TIME
反例:MAX_COUNT / EXPIRED_TIME
o.【推荐】如果模块、接口、类、方法使用了设计模式,在命名时要体现出具体模式。
说明:将设计模式体现在名字中,有利于阅读者快速理解架构设计思想。
正例: public class OrderFactory;
public class LoginProxy;
public class ResourceObserver;
s.【参考】各层命名规约:
A)Service / DAO 层方法命名规约:
1)获取单个对象的方法用 get 做前缀。
2)获取多个对象的方法用 list 做前缀,复数结尾,如:listObjects
3)获取统计值的方法用 count 做前缀。
4)插入的方法用 save / insert 做前缀。
5)删除的方法用 remove / delete 做前缀。
6)修改的方法用 update 做前缀。
B)领域模型命名规约:
1)数据对象:xxxDO,xxx 即为数据表名。
2)数据传输对象:xxxDTO,xxx 为业务领域相关的名称。
3)展示对象:xxxVO,xxx 一般为网页名称。
4)POJO 是 DO / DTO / BO / VO 的统称,禁止命名成 xxxPOJO。
02.常量定义
b.【强制】long 或 Long 赋值时,数值后使用大写 L,不能是小写 l,小写容易跟数字混淆,造成误解。
说明:public static final Long NUM = 2l; 写的是数字的 21,还是 Long 型的 2?
c.【强制】浮点数类型的数值后缀统一为大写的 D 或 F。
正例:public static final double HEIGHT = 175.5D;
public static final float WEIGHT = 150.3F;
d.【推荐】不要使用一个常量类维护所有常量,要按常量功能进行归类,分开维护。
说明:大而全的常量类,杂乱无章,使用查找功能才能定位到要修改的常量,不利于理解,也不利于维护。
正例:缓存相关常量放在类 CacheConsts 下;系统配置相关常量放在类 SystemConfigConsts 下。
03.代码格式
c.【强制】if / for / while / switch / do 等保留字与左右括号之间都必须加空格。
d.【强制】任何二目、三目运算符的左右两边都需要加一个空格。
04.OOP规约
f.【强制】Object 的 equals 方法容易抛空指针异常,应使用常量或确定有值的对象来调用 equals。
正例:"test".equals(param);
反例:param.equals("test");
说明:推荐使用 JDK7 引入的工具类 java.util.Objects#equals(Object a, Object b)
h.【强制】任何货币金额,均以最小货币单位且为整型类型进行存储。
i.【强制】浮点数之间的等值判断,基本数据类型不能使用 == 进行比较,包装数据类型不能使用 equals进行判断。
j.【强制】BigDecimal 的等值比较应使用 compareTo() 方法,而不是 equals() 方法。
说明:equals() 方法会比较值和精度(1.0 与 1.00 返回结果为 false),而 compareTo() 则会忽略精度。
l.【强制】禁止使用构造方法 BigDecimal(double) 的方式把 double 值转化为 BigDecimal 对象。
说明:BigDecimal(double) 存在精度损失风险,在精确计算或值比较的场景中可能会导致业务逻辑异常。如:BigDecimal g = new BigDecimal(0.1F);实际的存储值为:0.100000001490116119384765625
正例:优先推荐入参为 String 的构造方法,或使用 BigDecimal 的 valueOf 方法,此方法内部其实执行了 Double 的
toString,而 Double 的 toString 按 double 的实际能表达的精度对尾数进行了截断。
BigDecimal recommend1 = new BigDecimal("0.1");
BigDecimal recommend2 = BigDecimal.valueOf(0.1);
w.【推荐】循环体内,字符串的连接方式,使用 StringBuilder 的 append 方法进行扩展。
反例:
String str = "start";
for (int i = 0; i < 100; i++) {
str = str + "hello";
}
说明:反编译出的字节码文件显示每次循环都会 new 出一个 StringBuilder 对象,然后进行 append 操作,最后通过toString() 返回 String 对象,造成内存资源浪费。
05.日期时间
a.【强制】日期格式化时,传入 pattern 中表示年份统一使用小写的 y。
说明:日期格式化时,yyyy 表示当天所在的年,而大写的 YYYY 代表是 week in which year(JDK7 之后引入的概念),意思是当天所在的周属于的年份,一周从周日开始,周六结束,只要本周跨年,返回的 YYYY 就是下一年。
正例:表示日期和时间的格式如下所示:
new SimpleDateFormat("yyyy-MM-dd HH:mm:ss")
反例:某程序员因使用 YYYY/MM/dd 进行日期格式化,2017/12/31 执行结果为 2018/12/31,造成线上故障。
b.【强制】在日期格式中分清楚大写的 M 和小写的 m,大写的 H 和小写的 h 分别指代的意义。
说明:日期格式中的这两对字母表意如下:
1)表示月份是大写的 M
2)表示分钟则是小写的 m
3)24 小时制的是大写的 H
4)12 小时制的则是小写的 h
c.【强制】获取当前毫秒数:System.currentTimeMillis();而不是 new Date().getTime()。
说明:获取纳秒级时间,则使用 System.nanoTime 的方式。在 JDK8 中,针对统计时间等场景,推荐使用 Instant 类。
06.集合处理
a.【强制】关于 hashCode 和 equals 的处理,遵循如下规则:
1)只要覆写 equals,就必须覆写 hashCode。
2)因为 Set 存储的是不重复的对象,依据 hashCode 和 equals 进行判断,所以 Set 存储的对象必须覆写这两种方法。
3)如果自定义对象作为 Map 的键,那么必须覆写 hashCode 和 equals。
说明:String 因为覆写了 hashCode 和 equals 方法,所以可以愉快地将 String 对象作为 key 来使用。
b.【强制】判断所有集合内部的元素是否为空,使用 isEmpty() 方法,而不是 size() == 0 的方式。
说明:在某些集合中,前者的时间复杂度为 O(1),而且可读性更好。
正例:
Map<String, Object> map = new HashMap<>(16);
if (map.isEmpty()) {
System.out.println("no element in this map.");
}
e.【强制】ArrayList 的 subList 结果不可强转成 ArrayList,否则会抛出 ClassCastException 异常:java.util.RandomAccessSubList cannot be cast to java.util.ArrayList。
说明:subList() 返回的是 ArrayList 的内部类 SubList,并不是 ArrayList 本身,而是 ArrayList 的一个视图,对于SubList 的所有操作最终会反映到原列表上。
f.【强制】使用 Map 的方法 keySet() / values() / entrySet() 返回集合对象时,不可以对其进行添加元素操作,否则会抛出 UnsupportedOperationException 异常。
h.【强制】在 subList 场景中,高度注意对父集合元素的增加或删除,均会导致子列表的遍历、增加、删除产生 ConcurrentModificationException 异常。
说明:抽查表明,90% 的程序员对此知识点都有错误的认知。
k.【强制】使用工具类 Arrays.asList() 把数组转换成集合时,不能使用其修改集合相关的方法,它的 add / remove / clear 方法会抛出 UnsupportedOperationException 异常。
q.【推荐】使用 entrySet 遍历 Map 类集合 KV,而不是 keySet 方式进行遍历。
说明:keySet 其实是遍历了 2 次,一次是转为 Iterator 对象,另一次是从 hashMap 中取出 key 所对应的 value。而entrySet 只是遍历了一次就把 key 和 value 都放到了 entry 中,效率更高。如果是 JDK8,使用 Map.forEach 方法。
正例:values() 返回的是 V 值集合,是一个 list 集合对象;keySet() 返回的是 K 值集合,是一个 Set 集合对象;entrySet() 返回的是 K-V 值组合的 Set 集合。
07.并发处理
c.【强制】线程资源必须通过线程池提供,不允许在应用中自行显式创建线程。
说明:线程池的好处是减少在创建和销毁线程上所消耗的时间以及系统资源的开销,解决资源不足的问题。如果不使用
线程池,有可能造成系统创建大量同类线程而导致消耗完内存或者“过度切换”的问题。
e.【强制】SimpleDateFormat 是线程不安全的类,一般不要定义为 static 变量,如果定义为 static,必须
加锁,或者使用 DateUtils 工具类。
正例:注意线程安全,使用 DateUtils。亦推荐如下处理:
private static final ThreadLocal<DateFormat> dateStyle = new ThreadLocal<DateFormat>() {
@Override
protected DateFormat initialValue() {
return new SimpleDateFormat("yyyy-MM-dd");
}
};
说明:如果是 JDK8 的应用,可以使用 Instant 代替 Date,LocalDateTime 代替 Calendar,DateTimeFormatter 代替
SimpleDateFormat,官方给出的解释:simple beautiful strong immutable thread-safe。
s.【参考】ThreadLocal 对象使用 static 修饰,ThreadLocal 无法解决共享对象的更新问题。
说明:这个变量是针对一个线程内所有操作共享的,所以设置为静态变量,所有此类实例共享此静态变量,也就是说在类第一次被使用时装载,只分配一块存储空间,所有此类的对象(只要是这个线程内定义的)都可以操控这个变量。
08.控制语句
a.【强制】在一个 switch 块内,每个 case 要么通过 continue / break / return 等来终止,要么注释说明
程序将继续执行到哪一个 case 为止;在一个 switch 块内,都必须包含一个 default 语句并且放在最
后,即使它什么代码也没有。
说明:注意 break 是退出 switch 语句块,而 return 是退出方法体。
b.【强制】当 switch 括号内的变量类型为 String 并且此变量为外部参数时,必须先进行 null 判断。
反例:如下的代码输出是什么?
public class SwitchString {
public static void main(String[] args) {
method(null);
}
public static void method(String param) {
switch (param) {
// 肯定不是进入这里
case "sth":
System.out.println("it's sth");
break;
/
/ 也不是进入这里
case "null":
System.out.println("it's null");
break;
/
/ 也不是进入这里
default:
System.out.println("default");
}
}
}
i.【推荐】不要在其它表达式(尤其是条件表达式)中,插入赋值语句。
说明:赋值点类似于人体的穴位,对于代码的理解至关重要,所以赋值语句需要清晰地单独成为一行。
反例:
public Lock getLock(boolean fair)
// 算术表达式中出现赋值操作,容易忽略 count 值已经被改变
threshold = (count = Integer.MAX_VALUE) - 1;
// 条件表达式中出现赋值操作,容易误认为是 sync == fair
return (sync = fair) ? new FairSync() : new NonfairSync();
}
09.注释规约
a.【强制】类、类属性、类方法的注释必须使用 Javadoc 规范,使用 /** 内容 */ 格式,不得使用 // xxx方式。
说明:在 IDE 编辑窗口中,Javadoc 方式会提示相关注释,生成 Javadoc 可以正确输出相应注释;在 IDE 中,工程调用
方法时,不进入方法即可悬浮提示方法、参数、返回值的意义,提高阅读效率。
b.【强制】所有的抽象方法(包括接口中的方法)必须要用 Javadoc 注释、除了返回值、参数异常说明外,还必须指出该方法做什么事情,实现什么功能。
说明:对子类的实现要求,或者调用注意事项,请一并说明。
10.前后端规约
b.【强制】前后端数据列表相关的接口返回,如果为空,则返回空数组[]或空集合{}。
说明:此条约定有利于数据层面上的协作更加高效,减少前端很多琐碎的 null 判断。
d.【强制】在前后端交互的 JSON 格式数据中,所有的 key 必须为小写字母开始的 lowerCamelCase风格,符合英文表达习惯,且表意完整。
正例:errorCode / errorMessage / assetStatus / menuList / orderList / configFlag
反例:ERRORCODE / ERROR_CODE / error_message / error-message / errormessage
l.【推荐】服务端返回的数据,使用 JSON 格式而非 XML。
说明:尽管 HTTP 支持使用不同的输出格式,例如纯文本,JSON,CSV,XML,RSS 甚至 HTML。如果我们使用的面向用户的服务,应该选择 JSON 作为通信中使用的标准数据交换格式,包括请求和响应。此外,application/JSON 是一种通用的 MIME 类型,具有实用、精简、易读的特点。
02.异常日志
01.错误码
b.【强制】错误码不体现版本号和错误等级信息。
说明:错误码以不断追加的方式进行兼容。错误等级由日志和错误码本身的释义来决定。
02.异常处理
c.【强制】catch 时请分清稳定代码和非稳定代码,稳定代码指的是无论如何不会出错的代码。对于非稳定代码的 catch 尽可能进行区分异常类型,再做对应的异常处理。
说明:对大段代码进行 try-catch,使程序无法根据不同的异常做出正确的应激反应,也不利于定位问题,这是一种不负责任的表现。
正例:用户注册的场景中,如果用户输入非法字符,或用户名称已存在,或用户输入密码过于简单,在程序上作出分门别类的判断,并提示给用户。
d.【强制】捕获异常是为了处理它,不要捕获了却什么都不处理而抛弃之,如果不想处理它,请将该异常抛给它的调用者。最外层的业务使用者,必须处理异常,将其转化为用户可以理解的内容。
g.【强制】不要在 finally 块中使用 return
说明:try 块中的 return 语句执行成功后,并不马上返回,而是继续执行 finally 块中的语句,如果此处存在 return 语句,则会在此直接返回,无情丢弃掉 try 块中的返回点。
反例:
private int x = 0;
public int checkReturn() {
try {
/
/ x 等于 1,此处不返回
return ++x;
finally {
/ 返回的结果是 2
return ++x;
}
}
03.日志规约
h.【强制】生产环境禁止使用 System.out 或 System.err 输出或使用 e.printStackTrace() 打印异常堆栈。
说明:标准日志输出与标准错误输出文件每次 Jboss 重启时才滚动,如果大量输出送往这两个文件,容易造成文件大小超过操作系统大小限制。
i.【强制】异常信息应该包括两类信息:案发现场信息和异常堆栈信息。如果不处理,那么通过关键字throws 往上抛出。
正例:logger.error("inputParams: {} and errorMessage: {}", 各类参数或者对象 toString(), e.getMessage(), e);
03.单元测试
d.【强制】单元测试是可以重复执行的,不能受到外界环境的影响。
说明:单元测试通常会被放到持续集成中,每次有代码 push 时单元测试都会被执行。如果单测对外部环境(网络、服务、中间件等)有依赖,容易导致持续集成机制的不可用。
正例:为了不受外界环境影响,要求设计代码时就把 SUT(Software under test)的依赖改成注入,在测试时用 Spring这样的 DI 框架注入一个本地(内存)实现或者 Mock 实现。
e.【强制】对于单元测试,要保证测试粒度足够小,有助于精确定位问题。单测粒度至多是类级别,一般是方法级别。
说明:测试粒度小才能在出错时尽快定位到出错的位置。单元测试不负责检查跨类或者跨系统的交互逻辑,那是集成测试的领域。
f.【强制】核心业务、核心应用、核心模块的增量代码确保单元测试通过。
说明:新增代码及时补充单元测试,如果新增代码影响了原有单元测试,请及时修正。
g.【强制】单元测试代码必须写在如下工程目录: src/test/java,不允许写在业务代码目录下。
说明:源码编译时会跳过此目录,而单元测试框架默认是扫描此目录。
j.【推荐】对于数据库相关的查询,更新,删除等操作,不能假设数据库里的数据是存在的,或者直接操作数据库把数据插入进去,请使用程序插入或者导入数据的方式来准备数据。
反例:删除某一行数据的单元测试,在数据库中,先直接手动增加一行作为删除目标,但是这一行新增数据并不符合业务插入规则,导致测试结果异常。
04.安全规约
b.【强制】用户敏感数据禁止直接展示,必须对展示数据进行脱敏。
正例:中国大陆个人手机号码显示:139****1219,隐藏中间 4 位,防止隐私泄露。
f.【强制】表单、AJAX 提交必须执行 CSRF 安全验证。
说明:CSRF (Cross-site request forgery) 跨站请求伪造是一类常见编程漏洞。对于存在 CSRF 漏洞的应用/网站,攻击者可以事先构造好 URL,只要受害者用户一访问,后台便在用户不知情的情况下对数据库中用户参数进行相应修改。
j.【强制】配置文件中的密码需要加密。
05.MySQL数据库
01.建表规约
a.【强制】表达是与否概念的字段,必须使用 is_xxx 的方式命名,数据类型是 unsigned tinyint(1 表示是,0 表示否)。
注意:POJO 类中的任何布尔类型的变量,都不要加 is 前缀,所以,需要在<resultMap>设置从 is_xxx 到 Xxx 的映射关系。数据库表示是与否的值,使用 tinyint 类型,坚持 is_xxx 的命名方式是为了明确其取值含义与取值范围。
说明:任何字段如果为非负数,必须是 unsigned。
正例:表达逻辑删除的字段名 is_deleted,1 表示删除,0 表示未删除。
e.【强制】主键索引名为 pk_字段名;唯一索引名为 uk_字段名;普通索引名则为 idx_字段名。
说明:pk_即 primary key;uk_即 unique key;idx_即 index 的简称。
f.【强制】小数类型为 decimal,禁止使用 float 和 double。
说明:在存储的时候,float 和 double 都存在精度损失的问题,很可能在比较值的时候,得到不正确的结果。如果存储的数据范围超过 decimal 的范围,建议将数据拆成整数和小数并分开存储。
g.【强制】如果存储的字符串长度几乎相等,使用 char 定长字符串类型。
h.【强制】varchar 是可变长字符串,不预先分配存储空间,长度不要超过 5000,如果存储长度大于此值,定义字段类型为 text,独立出来一张表,用主键来对应,避免影响其它字段索引率。
i.【强制】表必备三字段:id,create_time,update_time。
说明:其中 id 必为主键,类型为 bigint unsigned、单表时自增、步长为 1。create_time,update_time 的类型均为datetime 类型,如果要记录时区信息,那么类型设置为 timestamp。
j.【强制】在数据库中不能使用物理删除操作,要使用逻辑删除。
说明:逻辑删除在数据删除后可以追溯到行为操作。不过会使得一些情况下的唯一主键变得不唯一,需要根据情况来酌情解决。
02.索引规约
a.【强制】业务上具有唯一特性的字段,即使是组合字段,也必须建成唯一索引。
说明:不要以为唯一索引影响了 insert 速度,这个速度损耗可以忽略,但提高查找速度是明显的;另外,即使在应用层
做了非常完善的校验控制,只要没有唯一索引,根据墨菲定律,必然有脏数据产生。
b.【强制】超过三个表禁止 join。需要 join 的字段,数据类型保持绝对一致;多表关联查询时,保证被关联的字段需要有索引。
说明:即使双表 join 也要注意表索引、SQL 性能。
j.【推荐】防止因字段类型不同造成的隐式转换,导致索引失效。
03.SQL语句
a.【强制】不要使用 count(列名) 或 count(常量) 来替代 count(*),count(*) 是 SQL92 定义的标准统计行数的语法,跟数据库无关,跟 NULL 和非 NULL 无关。
说明:count(*) 会统计值为 NULL 的行,而 count(列名) 不会统计此列为 NULL 值的行。
b.【强制】count(distinct col) 计算该列除 NULL 之外的不重复行数,注意 count(distinct col1 , col2) 如果其中一列全为 NULL,那么即使另一列有不同的值,也返回为 0。
g.【强制】禁止使用存储过程,存储过程难以调试和扩展,更没有移植性。
j.【推荐】SQL 语句中表的别名前加 as,并且以 t1、t2、t3、...的顺序依次命名。
说明:
1)别名可以是表的简称,或者是依照表在 SQL 语句中出现的顺序,以 t1、t2、t3 的方式命名。
2)别名前加 as 使别名更容易识别。
正例:select t1.name from first_table as t1 , second_table as t2 where t1.id = t2.id;
l.【参考】因国际化需要,所有的字符存储与表示,均采用 utf8mb4 字符集,字符计数方法需要注意。
说明:
SELECT LENGTH("轻松工作");--返回为 12
SELECT CHARACTER_LENGTH("轻松工作");--返回为 4
表情需要用 utf8mb4 来进行存储,注意它与 utf8 编码的区别。
m.【参考】TRUNCATE TABLE 比 DELETE 速度快,且使用的系统和事务日志资源少,但 TRUNCATE无事务且不触发 trigger,有可能造成事故,故不建议在开发代码中使用此语句。
说明:TRUNCATE TABLE 在功能上与不带 WHERE 子句的 DELETE 语句相同。
04.ORM映射
a.【强制】在表查询中,一律不要使用 * 作为查询的字段列表,需要哪些字段必须明确写明。
说明:
1)增加查询分析器解析成本。
2)增减字段容易与 resultMap 配置不一致。
3)无用字段增加网络消耗,尤其是 text 类型的字段。
b.【强制】POJO 类的布尔属性不能加 is,而数据库字段必须加 is_,要求在 resultMap 中进行字段与属性之间的映射。
说明:参见定义 POJO 类以及数据库字段定义规定,在 sql.xml 增加映射,是必须的。
d.【强制】sql.xml 配置参数使用:#{},#param# 不要使用 ${} 此种方式容易出现 SQL 注入。
f.【强制】不允许直接拿 HashMap 与 Hashtable 作为查询结果集的输出。
反例:某同学为避免写一个<resultMap>xxx</resultMap>,直接使用 Hashtable 来接收数据库返回结果,结果出现日常是把 bigint 转成 Long 值,而线上由于数据库版本不一样,解析成 BigInteger,导致线上问题。
i.【参考】@Transactional 事务不要滥用。事务会影响数据库的 QPS,另外使用事务的地方需要考虑各方面的回滚方案,包括缓存回滚、搜索引擎回滚、消息补偿、统计修正等。
99.强制使用DATETIME类型而非TIMESTAMP的原因
a.时区问题
TIMESTAMP 是一个带有时区的类型,它会根据数据库服务器的时区和存储的时区进行转换。这意味着在不同的环境中(如开发、测试和生产环境),同一个时间值可能会因时区不同而导致不同的结果,增加了处理上的复杂性。
DATETIME 是无时区的类型,存储的是具体的时间值,不受时区影响,因此在不同环境中表现一致。
b.存储限制
TIMESTAMP 在某些数据库中(如 MySQL)有存储限制,通常只能存储到 2038 年(Unix 时间戳的限制),而 DATETIME 可以存储到 9999 年,适用范围更广。
c.兼容性问题
不同数据库系统对于 TIMESTAMP 的实现可能存在差异,使用 DATETIME 可以在不同数据库之间提供更好的兼容性。
d.数据迁移与备份
在进行数据迁移或备份时,TIMESTAMP 的时间转换可能会引起混淆或错误,而 DATETIME 不会,因为它是固定的。
06.工程结构
01.应用分层
c.【参考】分层领域模型规约
DO(Data Object):此对象与数据库表结构一一对应,通过 DAO 层向上传输数据源对象。
DTO(Data Transfer Object):数据传输对象,Service 或 Manager 向外传输的对象。
BO(Business Object):业务对象,可以由 Service 层输出的封装业务逻辑的对象。
Query:数据查询对象,各层接收上层的查询请求。注意超过 2 个参数的查询封装,禁止使用 Map 类来传输。
VO(View Object):显示层对象,通常是 Web 向模板渲染引擎层传输的对象。
02.二方库依赖
略
03.服务器
a.【强制】调用远程操作必须有超时设置。
说明:类似于 HttpClient 的超时设置需要自己明确去设置 Timeout。根据经验表明,无数次的故障都是因为没有设置超时时间。
b.【推荐】客户端设置远程接口方法的具体超时时间(单位 ms)
超时设置生效顺序一般为:1)客户端 Special Method;2)客户端接口级别;3)服务端 Special Method;4)服务端接口级别。
07.设计规约
03.【强制】如果某个业务对象的状态超过 3 个,使用状态图来表达并且明确状态变化的各个触发条件。
说明:状态图的核心是对象状态,首先明确对象有多少种状态,然后明确两两状态之间是否存在直接转换关系,再明确
触发状态转换的条件是什么。
正例:淘宝订单状态有已下单、待付款、已付款、待发货、已发货、已收货等。比如已下单与已收货这两种状态之间是不可能有直接转换关系的。
99.附:专有名词
01.POJO(Plain Ordinary Java Object)
在本规约中,POJO 专指只有 setter / getter / toString 的简单类,包括DO / DTO / BO / VO 等。
02.DO(Data Object)
阿里巴巴专指数据库表一一对应的 POJO 类。此对象与数据库表结构一一对应,通过 DAO 层向上传输数据源对象。
03.PO(Persistent Object)
也指数据库表一一对应的 POJO 类。此对象与数据库表结构一一对应,通过 DAO 层向上传输数据源对象。
04.DTO(Data Transfer Object )
数据传输对象,Service 或 Manager 向外传输的对象。
05.BO(Business Object)
业务对象,可以由 Service 层输出的封装业务逻辑的对象。
06.Query
数据查询对象,各层接收上层的查询请求。注意超过2个参数的查询封装,禁止使用Map类来传输。
07.VO(View Object)
显示层对象,通常是 Web 向模板渲染引擎层传输的对象。
10.OOP(Object Oriented Programming)
本文泛指类、对象的编程处理方式。
12.ORM(Object Relation Mapping)
对象关系映射,对象领域模型与底层数据之间的转换,本文泛指 iBATIS,mybatis 等框架。
14.OOM(Out Of Memory)
源于 java.lang.OutOfMemoryError,当 JVM 没有足够的内存来为对象分配空间并且垃圾回收器也无法回收空间时,
系统出现的严重状况。
16.一方库
本工程内部子项目模块依赖的库(jar 包)。
17.二方库
公司内部发布到中央仓库,可供公司内部其它应用依赖的库(jar 包)。
18.三方库
公司之外的开源库(jar 包)。
4.4 编程规约
01.命名风格
a.【强制】所有编程相关的命名均不能以下划线或美元符号开始,也不能以下划线或美元符号结束。
反例:_name / __name / $Object / name_ / name$ / Object$
b.【强制】所有编程相关的命名严禁使用拼音与英文混合的方式,更不允许直接使用中文的方式。
说明:正确的英文拼写和语法可以让阅读者易于理解,避免歧义。注意,即使纯拼音命名方式也要避免采用。
正例:ali / alibaba / taobao / kaikeba / aliyun / youku / hangzhou 等国际通用的名称,可视同英文。
反例:DaZhePromotion【打折】/ getPingfenByName()【评分】 / String fw【福娃】/ int 变量名 = 3
c.【强制】代码和注释中都要避免使用任何人类语言中的种族歧视性或侮辱性词语。
正例:blockList / allowList / secondary
反例:blackList / whiteList / slave / SB / WTF
d.【强制】类名使用 UpperCamelCase 风格,以下情形例外:DO / PO / DTO / BO / VO / UID 等。
正例:ForceCode / UserDO / HtmlDTO / XmlService / TcpUdpDeal / TaPromotion
反例:forcecode / UserDo / HTMLDto / XMLService / TCPUDPDeal / TAPromotion
e.【强制】方法名、参数名、成员变量、局部变量都统一使用 lowerCamelCase 风格。
正例:localValue / getHttpMessage() / inputUserId
f.【强制】常量命名应该全部大写,单词间用下划线隔开,力求语义表达完整清楚,不要嫌名字长。
正例:MAX_STOCK_COUNT / CACHE_EXPIRED_TIME
反例:MAX_COUNT / EXPIRED_TIME
g.【强制】抽象类命名使用 Abstract 或 Base 开头;异常类命名使用 Exception 结尾,测试类命名以它要测试的类的名称开始,以 Test 结尾。
h.【强制】类型与中括号紧挨相连来定义数组。
正例:定义整形数组 int[] arrayDemo。
反例:在 main 参数中,使用 String args[] 来定义。
i.【强制】POJO 类中的任何布尔类型的变量,都不要加 is 前缀,否则部分框架解析会引起序列化错误。
说明:本文 MySQL 规约中的建表约定第 1 条,表达是与否的变量采用 is_xxx 的命名方式,所以需要在<resultMap>设置从 is_xxx 到 xxx 的映射关系。
反例:定义为布尔类型 Boolean isDeleted 的字段,它的 getter 方法也是 isDeleted(),部分框架在反向解析时,“误以为”对应的字段名称是 deleted,导致字段获取不到,得到意料之外的结果或抛出异常。
j.【强制】包名统一使用小写,点分隔符之间有且仅有一个自然语义的英语单词。包名统一使用单数形式,但是类名如果有复数含义,类名可以使用复数形式。
正例:应用工具类包名为 com.alibaba.ei.kunlun.aap.util;类名为 MessageUtils(此规则参考 spring 的框架结构)。
k.【强制】避免在子父类的成员变量之间、或者不同代码块的局部变量之间采用完全相同的命名,使可理解性降低。
说明:子类、父类成员变量名相同,即使是 public 也是能够通过编译,而局部变量在同一方法内的不同代码块中同名也是合法的,但是要避免使用。对于非 setter / getter 的参数名称也要避免与成员变量名称相同。
反例:
public class ConfusingName {
protected int stock;
protected String alibaba;
// 非 setter/getter 的参数名称,不允许与本类成员变量同名
public void access(String alibaba) {
if (condition) {
final int money = 666;
// ...
}
for (int i = 0; i < 10; i++) {
// 在同一方法体中,不允许与其它代码块中的 money 命名相同
final int money = 15978;
// ...
}
}
}
class Son extends ConfusingName {
// 不允许与父类的成员变量名称相同
private int stock;
}
l.【强制】杜绝完全不规范的英文缩写,避免望文不知义。
反例:AbstractClass“缩写”成 AbsClass;condition“缩写”成 condi;Function“缩写”成 Fu,此类随意缩写严重降低了代码的可阅读性。
m.【推荐】为了达到代码自解释的目标,任何自定义编程元素在命名时,使用完整的单词组合来表达。
正例:在 JDK 中,对某个对象引用的 volatile 字段进行原子更新的类名为 AtomicReferenceFieldUpdater。
反例:常见的方法内变量为 int a; 的定义方式。
n.【推荐】在常量与变量命名时,表示类型的名词放在词尾,以提升辨识度。
正例:startTime / workQueue / nameList / TERMINATED_THREAD_COUNT
反例:startedAt / QueueOfWork / listName / COUNT_TERMINATED_THREAD
o.【推荐】如果模块、接口、类、方法使用了设计模式,在命名时要体现出具体模式。
说明:将设计模式体现在名字中,有利于阅读者快速理解架构设计思想。
正例: public class OrderFactory;
public class LoginProxy;
public class ResourceObserver;
p.【推荐】接口类中的方法和属性不要加任何修饰符号(public 也不要加),保持代码的简洁性,并加上有效的 Javadoc 注释。尽量不要在接口里定义常量,如果一定要定义,最好确定该常量与接口的方法相关,并且是整个应用的基础常量。
正例:接口方法签名 void commit();
接口基础常量 String COMPANY = "alibaba";
反例:接口方法定义 public abstract void commit();
说明:JDK8 中接口允许有默认实现,那么这个 default 方法,是对所有实现类都有价值的默认实现。
q.接口和实现类的命名有两套规则:
1)【强制】对于 Service 和 DAO 类,基于 SOA 的理念,暴露出来的服务一定是接口,内部的实现类用 Impl 的后缀与接口区别。
正例:CacheServiceImpl 实现 CacheService 接口。
2)【推荐】如果是形容能力的接口名称,取对应的形容词为接口名(通常是 –able 结尾的形容词)。
正例:AbstractTranslator 实现 Translatable。
r.【参考】枚举类名带上 Enum 后缀,枚举成员名称需要全大写,单词间用下划线隔开。
说明:枚举其实就是特殊的常量类,且构造方法被默认强制是私有。
正例:枚举名字为 ProcessStatusEnum 的成员名称:SUCCESS / UNKNOWN_REASON
s.【参考】各层命名规约:
A)Service / DAO 层方法命名规约:
1)获取单个对象的方法用 get 做前缀。
2)获取多个对象的方法用 list 做前缀,复数结尾,如:listObjects
3)获取统计值的方法用 count 做前缀。
4)插入的方法用 save / insert 做前缀。
5)删除的方法用 remove / delete 做前缀。
6)修改的方法用 update 做前缀。
B)领域模型命名规约:
1)数据对象:xxxDO,xxx 即为数据表名。
2)数据传输对象:xxxDTO,xxx 为业务领域相关的名称。
3)展示对象:xxxVO,xxx 一般为网页名称。
4)POJO 是 DO / DTO / BO / VO 的统称,禁止命名成 xxxPOJO。
02.常量定义
a.【强制】不允许任何魔法值(即未经预先定义的常量)直接出现在代码中。
反例:
// 开发者 A 定义了缓存的 key。
String key = "Id#taobao_" + tradeId;
cache.put(key, value);
// 开发者 B 使用缓存时直接复制少了下划线,即 key 是"Id#taobao" + tradeId,导致出现故障。
String key = "Id#taobao" + tradeId;
cache.get(key);
b.【强制】long 或 Long 赋值时,数值后使用大写 L,不能是小写 l,小写容易跟数字混淆,造成误解。
说明:public static final Long NUM = 2l; 写的是数字的 21,还是 Long 型的 2?
c.【强制】浮点数类型的数值后缀统一为大写的 D 或 F。
正例:public static final double HEIGHT = 175.5D;
public static final float WEIGHT = 150.3F;
d.【推荐】不要使用一个常量类维护所有常量,要按常量功能进行归类,分开维护。
说明:大而全的常量类,杂乱无章,使用查找功能才能定位到要修改的常量,不利于理解,也不利于维护。
正例:缓存相关常量放在类 CacheConsts 下;系统配置相关常量放在类 SystemConfigConsts 下。
e.【推荐】常量的复用层次有五层:跨应用共享常量、应用内共享常量、子工程内共享常量、包内共享常量、类内共享常量。
1)跨应用共享常量:放置在二方库中,通常是 client.jar 中的 constant 目录下。
2)应用内共享常量:放置在一方库中,通常是子模块中的 constant 目录下。
反例:易懂常量也要统一定义成应用内共享常量,两个程序员在两个类中分别定义了表示“是”的常量:
类 A 中:public static final String YES = "yes";
类 B 中:public static final String YES = "y";
A.YES.equals(B.YES),预期是 true,但实际返回为 false,导致线上问题。
3)子工程内部共享常量:即在当前子工程的 constant 目录下。
4)包内共享常量:即在当前包下单独的 constant 目录下。
5)类内共享常量:直接在类内部 private static final 定义。
f.【推荐】如果变量值仅在一个固定范围内变化用 enum 类型来定义。
说明:如果存在名称之外的延伸属性应使用 enum 类型,下面正例中的数字就是延伸信息,表示一年中的第几个季节。
正例:
public enum SeasonEnum {
SPRING(1), SUMMER(2), AUTUMN(3), WINTER(4);
private int seq;
SeasonEnum(int seq) {
this.seq = seq;
}
public int getSeq() {
return seq;
}
}
03.代码格式
a.【强制】如果大括号内为空,简洁地写成{}即可,大括号中间无需换行和空格;如果是非空代码块,则:
1)左大括号前不换行。
2)左大括号后换行。
3)右大括号前换行。
4)右大括号后还有 else 等代码则不换行;表示终止的右大括号后必须换行。
b.【强制】左小括号和右边相邻字符之间不需要空格;右小括号和左边相邻字符之间也不需要空格;而左大括号前需要加空格。详见第 5 条下方正例提示。
反例:if(空格 a == b 空格)
c.【强制】if / for / while / switch / do 等保留字与左右括号之间都必须加空格。
d.【强制】任何二目、三目运算符的左右两边都需要加一个空格。
说明:包括赋值运算符 =、逻辑运算符 &&、加减乘除符号等。
e.【强制】采用 4 个空格缩进,禁止使用 Tab 字符。
说明:如使用 Tab 缩进,必须设置 1 个 Tab 为 4 个空格。IDEA 设置 Tab 为 4 个空格时,请勿勾选 Use tab character;而在 Eclipse 中,找到 tab policy 设置为 Spaces only,Tab size:4,最后必须勾选 insert spaces for tabs
正例:(涉及上述中的 1-5 点)
public static void main(String[] args) {
// 缩进 4 个空格
String say = "hello";
// 运算符的左右必须有一个空格
int flag = 0;
// 关键词 if 与括号之间必须有一个空格,括号内的 f 与左括号,0 与右括号不需要空格
if (flag == 0) {
System.out.println(say);
}
// 左大括号前加空格且不换行;左大括号后换行
if (flag == 1) {
System.out.println("world");
// 右大括号前换行,右大括号后有 else,不用换行
} else {
System.out.println("ok");
// 在右大括号后直接结束,则必须换行
}
}
f.【强制】注释的双斜线与注释内容之间有且仅有一个空格。
正例:
// 这是示例注释,请注意在双斜线之后有一个空格
String commentString = new String("demo");
g.【强制】在进行类型强制转换时,右括号与强制转换值之间不需要任何空格隔开。
正例:
double first = 3.2D;
int second = (int)first + 2;
h.【强制】单行字符数限制不超过 120 个,超出需要换行,换行时遵循如下原则:
1)第二行相对第一行缩进 4 个空格,从第三行开始,不再继续缩进,参考示例。
2)运算符与下文一起换行。
3)方法调用的点符号与下文一起换行。
4)方法调用中的多个参数需要换行时,在逗号后进行。
5)在括号前不要换行,见反例。
正例:
StringBuilder builder = new StringBuilder();
// 超过 120 个字符的情况下,换行缩进 4 个空格,并且方法前的点号一起换行
builder.append("yang").append("hao")
.append("chen")
.append("chen")
.append("chen");
反例:
StringBuilder builder = new StringBuilder();
// 超过 120 个字符的情况下,不要在括号前换行
builder.append("you").append("are").append("lucky");
// 参数很多的方法调用可能超过 120 个字符,逗号后才是换行处
method(args1, args2, args3, ... argsX);
i.【强制】方法参数在定义和传入时,多个参数逗号后面必须加空格。
正例:下例中实参的 args1 逗号后边必须要有一个空格。
method(args1, args2, args3);
j.【强制】IDE 的 text file encoding 设置为 UTF-8;IDE 中文件的换行符使用 Unix 格式,不要使用Windows 格式。
k.【推荐】单个方法的总行数不超过 80 行。
说明:除注释之外的方法签名、左右大括号、方法内代码、空行、回车及任何不可见字符的总行数不超过 80 行。
正例:代码逻辑分清红花和绿叶,个性和共性,绿叶逻辑单独出来成为额外方法,使主干代码更加晰;共性逻辑抽取成为共性方法,便于复用和维护。
l.【推荐】没有必要增加若干空格来使变量的赋值等号与上一行对应位置的等号对齐。
正例:
int one = 1;
long two = 2L;
float three = 3F;
StringBuilder builder = new StringBuilder();
说明:增加 builder 这个变量,如果需要对齐,则给 one、two、three 都要增加几个空格,在变量比较多的情况下,是非常累赘的事情。
m.【推荐】不同逻辑、不同语义、不同业务的代码之间插入一个空行,分隔开来以提升可读性。
说明:任何情形,没有必要插入多个空行进行隔开。
04.OOP规约
a.【强制】避免通过一个类的对象引用访问此类的静态变量或静态方法,无谓增加编译器解析成本,直接用类名来访问即可。
b.【强制】所有的覆写方法,必须加 @Override 注解。
说明:getObject() 与 get0bject() 的问题。一个是字母的 O,一个是数字的 0,加 @Override 可以准确判断是否覆盖成功。另外,如果在抽象类中对方法签名进行修改,其实现类会马上编译报错。
c.【强制】相同参数类型,相同业务含义,才可以使用的可变参数,参数类型避免定义为 Object。
说明:可变参数必须放置在参数列表的最后。(建议开发者尽量不用可变参数编程)
正例:public List<User> listUsers(String type, Long... ids) {...}
d.【强制】外部正在调用的接口或者二方库依赖的接口,不允许修改方法签名,避免对接口调用方产生影响。接口过时必须加 @Deprecated 注解,并清晰地说明采用的新接口或者新服务是什么。
e.【强制】不能使用过时的类或方法。
说明:java.net.URLDecoder 中的方法 decode(String encodeStr) 这个方法已经过时,应该使用双参数
decode(String source, String encode)。接口提供方既然明确是过时接口,那么有义务同时提供新的接口;作为调用
方来说,有义务去考证过时方法的新实现是什么。
f.【强制】Object 的 equals 方法容易抛空指针异常,应使用常量或确定有值的对象来调用 equals。
正例:"test".equals(param);
反例:param.equals("test");
说明:推荐使用 JDK7 引入的工具类 java.util.Objects#equals(Object a, Object b)
g.【强制】所有整型包装类对象之间值的比较,全部使用 equals 方法比较。
说明:对于 Integer var = ? 在 -128 至 127 之间的赋值,Integer 对象是在 IntegerCache.cache 产生,会复用已有对
象,这个区间内的 Integer 值可以直接使用 == 进行判断,但是这个区间之外的所有数据,都会在堆上产生,并不会复
用已有对象,这是一个大坑,推荐使用 equals 方法进行判断。
h.【强制】任何货币金额,均以最小货币单位且为整型类型进行存储。
i.【强制】浮点数之间的等值判断,基本数据类型不能使用 == 进行比较,包装数据类型不能使用 equals进行判断。
说明:浮点数采用“尾数+阶码”的编码方式,类似于科学计数法的“有效数字+指数”的表示方式。二进制无法精确表示大部分的十进制小数,具体原理参考《码出高效》。
反例:
float a = 1.0F - 0.9F;
float b = 0.9F - 0.8F;
if (a == b) {
// 预期进入此代码块,执行其它业务逻辑
// 但事实上 a == b 的结果为 false
}
Float x = Float.valueOf(a);
Float y = Float.valueOf(b);
if (x.equals(y)) {
// 预期进入此代码块,执行其它业务逻辑
// 但事实上 equals 的结果为 false
}
正例:
(1)指定一个误差范围,两个浮点数的差值在此范围之内,则认为是相等的。
float a = 1.0F - 0.9F;
float b = 0.9F - 0.8F;
float diff = 1e-6F;
if (Math.abs(a - b) < diff) {
System.out.println("true");
}
(2)使用 BigDecimal 来定义值,再进行浮点数的运算操作。
BigDecimal a = new BigDecimal("1.0");
BigDecimal b = new BigDecimal("0.9");
BigDecimal c = new BigDecimal("0.8");
BigDecimal x = a.subtract(b);
BigDecimal y = b.subtract(c);
if (x.compareTo(y) == 0) {
System.out.println("true");
}
j.【强制】BigDecimal 的等值比较应使用 compareTo() 方法,而不是 equals() 方法。
说明:equals() 方法会比较值和精度(1.0 与 1.00 返回结果为 false),而 compareTo() 则会忽略精度。
k.【强制】定义数据对象 DO 类时,属性类型要与数据库字段类型相匹配。
正例:数据库字段的 bigint 必须与类属性的 Long 类型相对应。
反例:某业务的数据库表 id 字段定义类型为 bigint unsigned,实际类对象属性为 Integer,随着 id 越来越大,超过 Integer 的表示范围而溢出成为负数,此时数据库 id 不支持存入负数抛出异常产生线上故障。
l.【强制】禁止使用构造方法 BigDecimal(double) 的方式把 double 值转化为 BigDecimal 对象。
说明:BigDecimal(double) 存在精度损失风险,在精确计算或值比较的场景中可能会导致业务逻辑异常。如:BigDecimal g = new BigDecimal(0.1F);实际的存储值为:0.100000001490116119384765625
正例:优先推荐入参为 String 的构造方法,或使用 BigDecimal 的 valueOf 方法,此方法内部其实执行了 Double 的
toString,而 Double 的 toString 按 double 的实际能表达的精度对尾数进行了截断。
BigDecimal recommend1 = new BigDecimal("0.1");
BigDecimal recommend2 = BigDecimal.valueOf(0.1);
m.关于基本数据类型与包装数据类型的使用标准如下:
1)【强制】所有的 POJO 类属性必须使用包装数据类型。
2)【强制】RPC 方法的返回值和参数必须使用包装数据类型。
3)【推荐】所有的局部变量使用基本数据类型。
说明:POJO 类属性没有初值是提醒使用者在需要使用时,必须自己显式地进行赋值,任何 NPE 问题,或者入库检查,都由使用者来保证。
正例:数据库的查询结果可能是 null,因为自动拆箱,用基本数据类型接收有 NPE 风险。
反例:某业务的交易报表上显示成交总额涨跌情况,即正负 x%,x 为基本数据类型,调用的 RPC 服务,调用不成功时,
返回的是默认值,页面显示为 0%,这是不合理的,应该显示成中划线-。所以包装数据类型的 null 值,能够表示额外的
信息,如:远程调用失败,异常退出。
n.【强制】定义 DO / PO / DTO / VO 等 POJO 类时,不要设定任何属性默认值。
反例:某业务的 DO 的 createTime 默认值为 new Date();但是这个属性在数据提取时并没有置入具体值,在更新其它字段时又附带更新了此字段,导致创建时间被修改成当前时间。
o.【强制】序列化类新增属性时,请不要修改 serialVersionUID 字段,避免反序列失败;如果完全不兼容升级,避免反序列化混乱,那么请修改 serialVersionUID 值。
说明:注意 serialVersionUID 不一致会抛出序列化运行时异常。
p.【强制】构造方法里面禁止加入任何业务逻辑,如果有初始化逻辑,请放在 init 方法中。
q.【强制】POJO 类必须写 toString 方法。使用 IDE 中的工具 source > generate toString 时,如果继承了另一个 POJO 类,注意在前面加一下 super.toString()。
说明:在方法执行抛出异常时,可以直接调用 POJO 的 toString() 方法打印其属性值,便于排查问题。
r.【强制】禁止在 POJO 类中,同时存在对应属性 xxx 的 isXxx() 和 getXxx() 方法。
说明:框架在调用属性 xxx 的提取方法时,并不能确定哪个方法一定是被优先调用到,神坑之一。
s.【推荐】使用索引访问用 String 的 split 方法得到的数组时,需做最后一个分隔符后有无内容的检查,否则会有抛 IndexOutOfBoundsException 的风险。
说明:
String str = "a,b,c,,";
String[] ary = str.split(",");
// 预期大于 3,结果等于 3
System.out.println(ary.length);
t.【推荐】当一个类有多个构造方法,或者多个同名方法,这些方法应该按顺序放置在一起,便于阅读,此条规则优先于下一条。
正例:
public int method(int param);
protected double method(int param1, int param2);
private void method();
u.【推荐】类内方法定义的顺序依次是:公有方法或保护方法 > 私有方法 > getter / setter 方法。
说明:公有方法是类的调用者和维护者最关心的方法,首屏展示最好;保护方法虽然只是子类关心,也可能是“模板设
计模式”下的核心方法;而私有方法外部一般不需要特别关心,是一个黑盒实现;因为承载的信息价值较低,所有
Service 和 DAO 的 getter / setter 方法放在类体最后。
v.【推荐】setter 方法中,参数名称与类成员变量名称一致,this.成员名=参数名。在 getter / setter 方法中,不要增加业务逻辑,增加排查问题的难度。
反例:
public Integer getData() {
if (condition) {
return this.data + 100;
}
else {
return this.data - 100;
}
}
w.【推荐】循环体内,字符串的连接方式,使用 StringBuilder 的 append 方法进行扩展。
反例:
String str = "start";
for (int i = 0; i < 100; i++) {
str = str + "hello";
}
说明:反编译出的字节码文件显示每次循环都会 new 出一个 StringBuilder 对象,然后进行 append 操作,最后通过toString() 返回 String 对象,造成内存资源浪费。
y.【推荐】final 可以声明类、成员变量、方法、以及本地变量,下列情况使用 final 关键字:
1)不允许被继承的类,如:String 类。
2)不允许修改引用的域对象,如:POJO 类的域变量。
3)不允许被覆写的方法,如:POJO 类的 setter 方法。
4)不允许运行过程中重新赋值的局部变量。
5)避免上下文重复使用一个变量,使用 final 关键字可以强制重新定义一个变量,方便更好地进行重构。
w.【推荐】慎用 Object 的 clone 方法来拷贝对象。
说明:对象 clone 方法默认是浅拷贝,若想实现深拷贝需覆写 clone 方法实现域对象的深度遍历式拷贝。
z.【推荐】类成员与方法访问控制从严:
1)如果不允许外部直接通过 new 来创建对象,那么构造方法必须是 private。
2)工具类不允许有 public 或 default 构造方法。
3)类非 static 成员变量并且与子类共享,必须是 protected。
4)类非 static 成员变量并且仅在本类使用,必须是 private。
5)类 static 成员变量如果仅在本类使用,必须是 private。
6)若是 static 成员变量,考虑是否为 final。
7)类成员方法只供类内部调用,必须是 private。
8)类成员方法只对继承类公开,那么限制为 protected。
说明:任何类、方法、参数、变量,严控访问范围。过于宽泛的访问范围,不利于模块解耦。思考:如果是一个
private 的方法,想删除就删除,可是一个 public 的 service 成员方法或成员变量,删除一下,不得手心冒点汗吗?
变量像自己的小孩,尽量在自己的视线内,变量作用域太大,无限制的到处跑,那么你会担心的。
05.日期时间
a.【强制】日期格式化时,传入 pattern 中表示年份统一使用小写的 y。
说明:日期格式化时,yyyy 表示当天所在的年,而大写的 YYYY 代表是 week in which year(JDK7 之后引入的概念),意思是当天所在的周属于的年份,一周从周日开始,周六结束,只要本周跨年,返回的 YYYY 就是下一年。
正例:表示日期和时间的格式如下所示:
new SimpleDateFormat("yyyy-MM-dd HH:mm:ss")
反例:某程序员因使用 YYYY/MM/dd 进行日期格式化,2017/12/31 执行结果为 2018/12/31,造成线上故障。
b.【强制】在日期格式中分清楚大写的 M 和小写的 m,大写的 H 和小写的 h 分别指代的意义。
说明:日期格式中的这两对字母表意如下:
1)表示月份是大写的 M
2)表示分钟则是小写的 m
3)24 小时制的是大写的 H
4)12 小时制的则是小写的 h
c.【强制】获取当前毫秒数:System.currentTimeMillis();而不是 new Date().getTime()。
说明:获取纳秒级时间,则使用 System.nanoTime 的方式。在 JDK8 中,针对统计时间等场景,推荐使用 Instant 类。
d.【强制】不允许在程序任何地方中使用:1)java.sql.Date 2)java.sql.Time 3)java.sql.Timestamp。
说明:第 1 个不记录时间,getHours() 抛出异常;第 2 个不记录日期,getYear() 抛出异常;第 3 个在构造方法super((time / 1000) * 1000),在 Timestamp 属性 fastTime 和 nanos 分别存储秒和纳秒信息。
反例:java.util.Date.after(Date) 进行时间比较时,当入参是 java.sql.Timestamp 时,会触发 JDK BUG(JDK9 已修复),可能导致比较时的意外结果。
e.【强制】禁止在程序中写死一年为 365 天,避免在公历闰年时出现日期转换错误或程序逻辑错误。
正例:
// 获取今年的天数
int daysOfThisYear = LocalDate.now().lengthOfYear();
// 获取指定某年的天数
LocalDate.of(2011, 1, 1).lengthOfYear();
反例:
// 第一种情况:在闰年 366 天时,出现数组越界异常
int[] dayArray = new int[365];
// 第二种情况:一年有效期的会员制,2020 年 1 月 26 日注册,硬编码 365 返回的却是 2021 年 1 月 25 日
Calendar calendar = Calendar.getInstance();
calendar.set(2020, 1, 26);
calendar.add(Calendar.DATE, 365);
f.【推荐】避免公历闰年 2 月问题。闰年的 2 月份有 29 天,一年后的那一天不可能是 2 月 29 日。
g.【推荐】使用枚举值来指代月份。如果使用数字,注意 Date,Calendar 等日期相关类的月份 month 取值范围从 0 到 11 之间。
说明:参考 JDK 原生注释,Month value is 0-based. e.g., 0 for January.
正例:Calendar.JANUARY,Calendar.FEBRUARY,Calendar.MARCH 等来指代相应月份来进行传参或比较。
06.集合处理
a.【强制】关于 hashCode 和 equals 的处理,遵循如下规则:
1)只要覆写 equals,就必须覆写 hashCode。
2)因为 Set 存储的是不重复的对象,依据 hashCode 和 equals 进行判断,所以 Set 存储的对象必须覆写这两种方法。
3)如果自定义对象作为 Map 的键,那么必须覆写 hashCode 和 equals。
说明:String 因为覆写了 hashCode 和 equals 方法,所以可以愉快地将 String 对象作为 key 来使用。
b.【强制】判断所有集合内部的元素是否为空,使用 isEmpty() 方法,而不是 size() == 0 的方式。
说明:在某些集合中,前者的时间复杂度为 O(1),而且可读性更好。
正例:
Map<String, Object> map = new HashMap<>(16);
if (map.isEmpty()) {
System.out.println("no element in this map.");
}
c.【强制】在使用 java.util.stream.Collectors 类的 toMap() 方法转为 Map 集合时,一定要使用参数类型为 BinaryOperator,参数名为 mergeFunction 的方法,否则当出现相同 key 时会抛出IllegalStateException 异常。
说明:参数 mergeFunction 的作用是当出现 key 重复时,自定义对 value 的处理策略。
正例:
List<Pair<String, Double>> pairArrayList = new ArrayList<>(3);
pairArrayList.add(new Pair<>("version", 12.10));
pairArrayList.add(new Pair<>("version", 12.19));
pairArrayList.add(new Pair<>("version", 6.28));
// 生成的 map 集合中只有一个键值对:{version=6.28}
Map<String, Double> map = pairArrayList.stream()
collect(Collectors.toMap(Pair::getKey, Pair::getValue, (v1, v2) -> v2));
反例:
String[] departments = new String[]{"RDC", "RDC", "KKB"};
// 抛出 IllegalStateException 异常
Map<Integer, String> map = Arrays.stream(departments).collect(Collectors.toMap(String::hashCode, str -> str));
d.【强制】在使用 java.util.stream.Collectors 类的 toMap() 方法转为 Map 集合时,一定要注意当 value为 null 时会抛 NPE 异常。
说明:在 java.util.HashMap 的 merge 方法里会进行如下的判断:
if (value == null || remappingFunction == null) throw new NullPointerException();
反例:
List<Pair<String, Double>> pairArrayList = new ArrayList<>(2);
pairArrayList.add(new Pair<>("version1", 8.3));
pairArrayList.add(new Pair<>("version2", null));
// 抛出 NullPointerException 异常
Map<String, Double> map = pairArrayList.stream().collect(Collectors.toMap(Pair::getKey, Pair::getValue, (v1, v2) -> v2));
e.【强制】ArrayList 的 subList 结果不可强转成 ArrayList,否则会抛出 ClassCastException 异常:java.util.RandomAccessSubList cannot be cast to java.util.ArrayList。
说明:subList() 返回的是 ArrayList 的内部类 SubList,并不是 ArrayList 本身,而是 ArrayList 的一个视图,对于SubList 的所有操作最终会反映到原列表上。
f.【强制】使用 Map 的方法 keySet() / values() / entrySet() 返回集合对象时,不可以对其进行添加元素操作,否则会抛出 UnsupportedOperationException 异常。
g.【强制】Collections 类返回的对象,如:emptyList() / singletonList() 等都是 immutable list,不可对其进行添加或者删除元素的操作。
反例:如果查询无结果,返回 Collections.emptyList() 空集合对象,调用方一旦在返回的集合中进行了添加元素的操作,就会触发 UnsupportedOperationException 异常。
h.【强制】在 subList 场景中,高度注意对父集合元素的增加或删除,均会导致子列表的遍历、增加、删除产生 ConcurrentModificationException 异常。
说明:抽查表明,90% 的程序员对此知识点都有错误的认知。
i.【强制】使用集合转数组的方法,必须使用集合的 toArray(T[] array),传入的是类型完全一致、长度为的空数组。
反例:直接使用 toArray 无参方法存在问题,此方法返回值只能是 Object[]类,若强转其它类型数组将出现ClassCastException 错误。
正例:
List<String> list = new ArrayList<>(2);
list.add("guan");
list.add("bao");
String[] array = list.toArray(new String[0]);
说明:使用 toArray 带参方法,数组空间大小的 length:
1)等于 0,动态创建与 size 相同的数组,性能最好。
2)大于 0 但小于 size,重新创建大小等于 size 的数组,增加 GC 负担。
3)等于 size,在高并发情况下,数组创建完成之后,size 正在变大的情况下,负面影响与 2 相同。
4)大于 size,空间浪费,且在 size 处插入 null 值,存在 NPE 隐患。
j.【强制】使用 Collection 接口任何实现类的 addAll() 方法时,要对输入的集合参数进行 NPE 判断。
说明:在 ArrayList#addAll 方法的第一行代码即 Object[] a = c.toArray();其中 c 为输入集合参数,如果为 null,则直接抛出异常。
k.【强制】使用工具类 Arrays.asList() 把数组转换成集合时,不能使用其修改集合相关的方法,它的 add / remove / clear 方法会抛出 UnsupportedOperationException 异常。
说明:asList 的返回对象是一个 Arrays 内部类,并没有实现集合的修改方法。Arrays.asList 体现的是适配器模式,只是转换接口,后台的数据仍是数组。
String[] str = new String[]{ "yang", "guan", "bao" };
List list = Arrays.asList(str);
第一种情况:list.add("yangguanbao"); 运行时异常。
第二种情况:str[0] = "change"; list 中的元素也会随之修改,反之亦然。
l.【强制】泛型通配符<? extends T>来接收返回的数据,此写法的泛型集合不能使用 add 方法,而<? super T>不能使用 get 方法,两者在接口调用赋值的场景中容易出错。
说明:扩展说一下 PECS(Producer Extends Consumer Super) 原则,即频繁往外读取内容的,适合用
<? extends T>,经常往里插入的,适合用<? super T>
m.【强制】在无泛型限制定义的集合赋值给泛型限制的集合时,在使用集合元素时,需要进行instanceof 判断,避免抛出 ClassCastException 异常。
说明:毕竟泛型是在 JDK5 后才出现,考虑到向前兼容,编译器是允许非泛型集合与泛型集合互相赋值。
反例:
List<String> generics = null;
List notGenerics = new ArrayList(10);
notGenerics.add(new Object());
notGenerics.add(new Integer(1));
generics = notGenerics;
// 此处抛出 ClassCastException 异常
String string = generics.get(0);
m.【强制】不要在 foreach 循环里进行元素的 remove / add 操作。remove 元素请使用 iterator 方式,如果并发操作,需要对 iterator 对象加锁。
正例:
List<String> list = new ArrayList<>();
list.add("1");
list.add("2");
Iterator<String> iterator = list.iterator();
while (iterator.hasNext()) {
String item = iterator.next();
if (删除元素的条件) {
iterator.remove();
}
}
反例:
for (String item : list) {
if ("1".equals(item)) {
list.remove(item);
}
}
说明:反例中的执行结果肯定会出乎大家的意料,那么试一下把“1”换成“2”会是同样的结果吗?
n.【强制】在 JDK7 版本及以上,Comparator 实现类要满足如下三个条件,不然 Arrays.sort,Collections.sort 会抛 IllegalArgumentException 异常。
说明:三个条件如下
1)x,y 的比较结果和 y,x 的比较结果相反。
2)x > y,y > z,则 x > z。
3)x = y,则 x,z 比较结果和 y,z 比较结果相同。
反例:下例中没有处理相等的情况,交换两个对象判断结果并不互反,不符合第一个条件,在实际使用中可能会出现异常。
new Comparator<Student>() {
@Override
public int compare(Student o1, Student o2) {
return o1.getId() > o2.getId() ? 1 : -1;
}
};
o.【推荐】泛型集合使用时,在 JDK7 及以上,使用 diamond 语法或全省略。
说明:菱形泛型,即 diamond,直接使用<>来指代前边已经指定的类型。
正例:
// diamond 方式,即<>
HashMap<String, String> userCache = new HashMap<>(16);
// 全省略方式
ArrayList<User> users = new ArrayList(10);
p.【推荐】集合初始化时,指定集合初始值大小。
说明:HashMap 使用构造方法 HashMap(int initialCapacity) 进行初始化时,如果暂时无法确定集合大小,那么指定默认值(16)即可。
正例:initialCapacity = (需要存储的元素个数 / 负载因子) + 1。注意负载因子(即 loaderfactor)默认为 0.75,如果暂时无法确定初始值大小,请设置为 16(即默认值)。
反例:HashMap 需要放置 1024 个元素,由于没有设置容量初始大小,随着元素增加而被迫不断扩容,resize() 方法总共会调用 8 次,反复重建哈希表和数据迁移。当放置的集合元素个数达千万级时会影响程序性能。
q.【推荐】使用 entrySet 遍历 Map 类集合 KV,而不是 keySet 方式进行遍历。
说明:keySet 其实是遍历了 2 次,一次是转为 Iterator 对象,另一次是从 hashMap 中取出 key 所对应的 value。而entrySet 只是遍历了一次就把 key 和 value 都放到了 entry 中,效率更高。如果是 JDK8,使用 Map.forEach 方法。
正例:values() 返回的是 V 值集合,是一个 list 集合对象;keySet() 返回的是 K 值集合,是一个 Set 集合对象;entrySet() 返回的是 K-V 值组合的 Set 集合。
r.【推荐】高度注意 Map 类集合 K / V 能不能存储 null 值的情况,如下表格:
集合类 Key Value Super 说明
Hashtable 不允许为 null 不允许为 null Dictionary 线程安全
TreeMap 不允许为 null 允许为 null AbstractMap 线程不安全
ConcurrentHashMap 不允许为 null 不允许为 null AbstractMap 锁分段技术(JDK8:CAS)
HashMap 允许为 null 允许为 null AbstractMap 线程不安全
反例:由于 HashMap 的干扰,很多人认为 ConcurrentHashMap 是可以置入 null 值,而事实上,存储 null 值时会抛出 NPE 异常。
s.【参考】合理利用好集合的有序性(sort)和稳定性(order),避免集合的无序性(unsort)和不稳定性(unorder)带来的负面影响。
说明:有序性是指遍历的结果是按某种比较规则依次排列的,稳定性指集合每次遍历的元素次序是一定的。如:ArrayList 是 order / unsort;HashMap 是 unorder / unsort;TreeSet 是 order / sort。
t.【参考】利用 Set 元素唯一的特性,可以快速对一个集合进行去重操作,避免使用 List 的contains() 进行遍历去重或者判断包含操作。
07.并发处理
a.【强制】获取单例对象需要保证线程安全,其中的方法也要保证线程安全。
说明:资源驱动类、工具类、单例工厂类都需要注意。
b.【强制】创建线程或线程池时请指定有意义的线程名称,方便出错时回溯。
正例:自定义线程工厂,并且根据外部特征进行分组,比如,来自同一机房的调用,把机房编号赋值给
whatFeatureOfGroup:
public class UserThreadFactory implements ThreadFactory {
private final String namePrefix;
private final AtomicInteger nextId = new AtomicInteger(1);
// 定义线程组名称,在利用 jstack 来排查问题时,非常有帮助
UserThreadFactory(String whatFeatureOfGroup) {
namePrefix = "FromUserThreadFactory's" + whatFeatureOfGroup + "-Worker-";
}
@Override
public Thread newThread(Runnable task) {
String name = namePrefix + nextId.getAndIncrement();
Thread thread = new Thread(null, task, name, 0, false);
System.out.println(thread.getName());
return thread;
}
}
c.【强制】线程资源必须通过线程池提供,不允许在应用中自行显式创建线程。
说明:线程池的好处是减少在创建和销毁线程上所消耗的时间以及系统资源的开销,解决资源不足的问题。如果不使用
线程池,有可能造成系统创建大量同类线程而导致消耗完内存或者“过度切换”的问题。
d.【强制】线程池不允许使用 Executors 去创建,而是通过 ThreadPoolExecutor 的方式,这样的处理方式让写的同学更加明确线程池的运行规则,规避资源耗尽的风险。
说明:Executors 返回的线程池对象的弊端如下:
1)FixedThreadPool 和 SingleThreadPool:
允许的请求队列长度为 Integer.MAX_VALUE,可能会堆积大量的请求,从而导致 OOM。
2)CachedThreadPool:
允许的创建线程数量为 Integer.MAX_VALUE,可能会创建大量的线程,从而导致 OOM。
3)ScheduledThreadPool:
允许的请求队列长度为 Integer.MAX_VALUE,可能会堆积大量的请求,从而导致 OOM。
e.【强制】SimpleDateFormat 是线程不安全的类,一般不要定义为 static 变量,如果定义为 static,必须
加锁,或者使用 DateUtils 工具类。
正例:注意线程安全,使用 DateUtils。亦推荐如下处理:
private static final ThreadLocal<DateFormat> dateStyle = new ThreadLocal<DateFormat>() {
@Override
protected DateFormat initialValue() {
return new SimpleDateFormat("yyyy-MM-dd");
}
};
说明:如果是 JDK8 的应用,可以使用 Instant 代替 Date,LocalDateTime 代替 Calendar,DateTimeFormatter 代替
SimpleDateFormat,官方给出的解释:simple beautiful strong immutable thread-safe。
f.【强制】必须回收自定义的 ThreadLocal 变量记录的当前线程的值,尤其在线程池场景下,线程经常会被复用,如果不清理自定义的 ThreadLocal 变量,可能会影响后续业务逻辑和造成内存泄露等问题。尽量在代码中使用 try-finally 块进行回收。
正例:
objectThreadLocal.set(userInfo);
try {
// ...
finally {
objectThreadLocal.remove();
}
g.【强制】高并发时,同步调用应该去考量锁的性能损耗。能用无锁数据结构,就不要用锁;能锁区块,就不要锁整个方法体;能用对象锁,就不要用类锁。
说明:尽可能使加锁的代码块工作量尽可能的小,避免在锁代码块中调用 RPC 方法。
h.【强制】对多个资源、数据库表、对象同时加锁时,需要保持一致的加锁顺序,否则可能会造成死锁。
说明:线程一需要对表 A、B、C 依次全部加锁后才可以进行更新操作,那么线程二的加锁顺序也必须是 A、B、C,否则可能出现死锁。
i.【强制】在使用阻塞等待获取锁的方式中,必须在 try 代码块之外,并且在加锁方法与 try 代码块之间没
有任何可能抛出异常的方法调用,避免加锁成功后,在 finally 中无法解锁。
说明一:在 lock 方法与 try 代码块之间的方法调用抛出异常,无法解锁,造成其它线程无法成功获取锁。
说明二:如果 lock 方法在 try 代码块之内,可能由于其它方法抛出异常,导致在 finally 代码块中,unlock 对未加锁的对象解锁,它会调用 AQS 的 tryRelease 方法(取决于具体实现类),抛出 IllegalMonitorStateException 异常。
说明三:在 Lock 对象的 lock 方法实现中可能抛出 unchecked 异常,产生的后果与说明二相同。
正例:
Lock lock = new XxxLock();
// ...
lock.lock();
try {
doSomething();
doOthers();
finally {
lock.unlock();
}
反例:
Lock lock = new XxxLock();
// ...
try {
// 如果此处抛出异常,则直接执行 finally 代码块
doSomething();
// 无论加锁是否成功,finally 代码块都会执行
lock.lock();
doOthers();
}
finally {
lock.unlock();
}
j.【强制】在使用尝试机制来获取锁的方式中,进入业务代码块之前,必须先判断当前线程是否持有锁。锁的释放规则与锁的阻塞等待方式相同。
说明:Lock 对象的 unlock 方法在执行时,它会调用 AQS 的 tryRelease 方法(取决于具体实现类),如果当前线程不持有锁,则抛出 IllegalMonitorStateException 异常。
正例:
Lock lock = new XxxLock();
// ...
boolean isLocked = lock.tryLock();
if (isLocked) {
try {
doSomething();
doOthers();
}
finally {
lock.unlock();
}
}
k.【强制】并发修改同一记录时,避免更新丢失,需要加锁。要么在应用层加锁,要么在缓存加锁,要么在数据库层使用乐观锁,使用 version 作为更新依据。
说明:如果每次访问冲突概率小于 20%,推荐使用乐观锁,否则使用悲观锁。乐观锁的重试次数不得小于 3 次。
l.【强制】多线程并行处理定时任务时,Timer 运行多个 TimeTask 时,只要其中之一没有捕获抛出的异常,其它任务便会自动终止运行,使用 ScheduledExecutorService 则没有这个问题。
m.【推荐】资金相关的金融敏感信息,使用悲观锁策略。
说明:乐观锁在获得锁的同时已经完成了更新操作,校验逻辑容易出现漏洞,另外,乐观锁对冲突的解决策略有较复杂的要求,处理不当容易造成系统压力或数据异常,所以资金相关的金融敏感信息不建议使用乐观锁更新。
正例:悲观锁遵循一锁二判三更新四释放的原则。
n.【推荐】使用 CountDownLatch 进行异步转同步操作,每个线程退出前必须调用 countDown 方法,线程执行代码注意 catch 异常,确保 countDown 方法被执行到,避免主线程无法执行至 await 方法,直到超时才返回结果。
说明:注意,子线程抛出异常堆栈,不能在主线程 try-catch 到。
o.【推荐】避免 Random 实例被多线程使用,虽然共享该实例是线程安全的,但会因竞争同一 seed 导致的性能下降。
说明:Random 实例包括 java.util.Random 的实例或者 Math.random() 的方式。
正例:在 JDK7 之后,可以直接使用 API ThreadLocalRandom,而在 JDK7 之前,需要编码保证每个线程持有一个单独的 Random 实例。
p.【推荐】通过双重检查锁(double-checked locking),实现延迟初始化需要将目标属性声明为volatile 型,(比如修改 helper 的属性声明为 private volatile Helper helper = null;)。
正例:
public class LazyInitDemo {
private volatile Helper helper = null;
public Helper getHelper() {
if (helper == null) {
synchronized(this) {
if (helper == null) {
helper = new Helper();
}
}
}
return helper;
}
// other methods and fields...
}
q.【参考】volatile 解决多线程内存不可见问题对于一写多读,是可以解决变量同步问题,但是如果多写,同样无法解决线程安全问题。
说明:如果是 count++操作,使用如下类实现:
AtomicInteger count = new AtomicInteger();
count.addAndGet(1);
如果是 JDK8,推荐使用 LongAdder 对象,比 AtomicLong 性能更好(减少乐观锁的重试次数)。
r.【参考】HashMap 在容量不够进行 resize 时由于高并发可能出现死链,导致 CPU 飙升,在开发过程中注意规避此风险。
s.【参考】ThreadLocal 对象使用 static 修饰,ThreadLocal 无法解决共享对象的更新问题。
说明:这个变量是针对一个线程内所有操作共享的,所以设置为静态变量,所有此类实例共享此静态变量,也就是说在类第一次被使用时装载,只分配一块存储空间,所有此类的对象(只要是这个线程内定义的)都可以操控这个变量。
08.控制语句
a.【强制】在一个 switch 块内,每个 case 要么通过 continue / break / return 等来终止,要么注释说明
程序将继续执行到哪一个 case 为止;在一个 switch 块内,都必须包含一个 default 语句并且放在最
后,即使它什么代码也没有。
说明:注意 break 是退出 switch 语句块,而 return 是退出方法体。
b.【强制】当 switch 括号内的变量类型为 String 并且此变量为外部参数时,必须先进行 null 判断。
反例:如下的代码输出是什么?
public class SwitchString {
public static void main(String[] args) {
method(null);
}
public static void method(String param) {
switch (param) {
// 肯定不是进入这里
case "sth":
System.out.println("it's sth");
break;
/
/ 也不是进入这里
case "null":
System.out.println("it's null");
break;
/
/ 也不是进入这里
default:
System.out.println("default");
}
}
}
c.【强制】在 if / else / for / while / do 语句中必须使用大括号。
反例: if (condition) statements;
说明:即使只有一行代码,也要采用大括号的编码方式。
d.【强制】三目运算符 condition ? 表达式 1:表达式 2 中,高度注意表达式 1 和 2 在类型对齐时,可能抛出因自动拆箱导致的 NPE 异常。
说明:以下两种场景会触发类型对齐的拆箱操作:
1)表达式 1 或 表达式 2 的值只要有一个是原始类型。
2)表达式 1 或 表达式 2 的值的类型不一致,会强制拆箱升级成表示范围更大的那个类型。
反例:
Integer a = 1;
Integer b = 2;
Integer c = null;
Boolean flag = false;
// a*b 的结果是 int 类型,那么 c 会强制拆箱成 int 类型,抛出 NPE 异常
Integer result = (flag ? a * b : c);
e.【强制】在高并发场景中,避免使用“等于”判断作为中断或退出的条件。
说明:如果并发控制没有处理好,容易产生等值判断被“击穿”的情况,使用大于或小于的区间判断条件来代替。
反例:判断剩余奖品数量等于 0 时,终止发放奖品,但因为并发处理错误导致奖品数量瞬间变成了负数,这样的话,活动无法终止。
f.【推荐】当方法的代码总行数超过 10 行时,return / throw 等中断逻辑的右大括号后需要加一个空行。
说明:这样做逻辑清晰,有利于代码阅读时重点关注。
g.【推荐】表达异常的分支时,少用 if-else 方式,这种方式可以改写成:
if (condition) {
...
return obj;
}
// 接着写 else 的业务逻辑代码;
说明:如果非使用 if()...else if()...else...方式表达逻辑,避免后续代码维护困难,请勿超过 3 层。
正例:超过 3 层的 if-else 的逻辑判断代码可以使用卫语句、策略模式、状态模式等来实现,其中卫语句示例如下:
public void findBoyfriend(Man man) {
if (man.isUgly()) {
System.out.println("本姑娘是外貌协会的资深会员");
return;
}
if (man.isPoor()) {
System.out.println("贫贱夫妻百事哀");
return;
}
if (man.isBadTemper()) {
System.out.println("银河有多远,你就给我滚多远");
return;
}
System.out.println("可以先交往一段时间看看");
}
h.【推荐】除常用方法(如 getXxx / isXxx)等外不要在条件判断中执行其它复杂的语句,将复杂逻辑判断的结果赋值给一个有意义的布尔变量名,以提高可读性。
说明:很多 if 语句内的逻辑表达式相当复杂,与、或、取反混合运算,甚至各种方法纵深调用,理解成本非常高。如果赋值一个非常好理解的布尔变量名字,则是件令人爽心悦目的事情。
正例:
// 伪代码如下
final boolean existed = (file.open(fileName, "w") != null) && (...) || (...);
if (existed) {
...
}
反例:
public final void acquire(long arg) {
if (!tryAcquire(arg) && acquireQueued(addWaiter(Node.EXCLUSIVE), arg)) {
selfInterrupt();
}
}
i.【推荐】不要在其它表达式(尤其是条件表达式)中,插入赋值语句。
说明:赋值点类似于人体的穴位,对于代码的理解至关重要,所以赋值语句需要清晰地单独成为一行。
反例:
public Lock getLock(boolean fair)
// 算术表达式中出现赋值操作,容易忽略 count 值已经被改变
threshold = (count = Integer.MAX_VALUE) - 1;
// 条件表达式中出现赋值操作,容易误认为是 sync == fair
return (sync = fair) ? new FairSync() : new NonfairSync();
}
j.【推荐】循环体中的语句要考量性能,以下操作尽量移至循环体外处理,如定义对象、变量、获取数据库连接,进行不必要的 try-catch 操作(这个 try-catch 是否可以移至循环体外)。
k.【推荐】避免采用取反逻辑运算符。
说明:取反逻辑不利于快速理解,并且取反逻辑写法一般都存在对应的正向逻辑写法。
正例:使用 if(x < 628) 来表达 x 小于 628。
反例:使用 if(!(x >= 628)) 来表达 x 小于 628。
l.【推荐】公开接口需要进行入参保护,尤其是批量操作的接口。
反例:某业务系统,提供一个用户批量查询的接口,API 文档上有说最多查多少个,但接口实现上没做任何保护,导致调用方传了一个 1000 的用户 id 数组过来后,查询信息后,内存爆了。
m.【参考】下列情形,需要进行参数校验:
1)调用频次低的方法。
2)执行时间开销很大的方法。此情形中,参数校验时间几乎可以忽略不计,但如果因为参数错误导致中间执行回退,或者错误,那得不偿失。
3)需要极高稳定性和可用性的方法。
4)对外提供的开放接口,不管是 RPC / API / HTTP 接口。
5)敏感权限入口。
n.【参考】下列情形,不需要进行参数校验:
1)极有可能被循环调用的方法。但在方法说明里必须注明外部参数检查。
2)底层调用频度比较高的方法。毕竟是像纯净水过滤的最后一道,参数错误不太可能到底层才会暴露问题。一般 DAO层与 Service 层都在同一个应用中,部署在同一台服务器中,所以 DAO 的参数校验,可以省略。
3)被声明成 private 只会被自己代码所调用的方法,如果能够确定调用方法的代码传入参数已经做过检查或者肯定不会有问题,此时可以不校验参数。
09.注释规约
a.【强制】类、类属性、类方法的注释必须使用 Javadoc 规范,使用 /** 内容 */ 格式,不得使用 // xxx方式。
说明:在 IDE 编辑窗口中,Javadoc 方式会提示相关注释,生成 Javadoc 可以正确输出相应注释;在 IDE 中,工程调用
方法时,不进入方法即可悬浮提示方法、参数、返回值的意义,提高阅读效率。
b.【强制】所有的抽象方法(包括接口中的方法)必须要用 Javadoc 注释、除了返回值、参数异常说明外,还必须指出该方法做什么事情,实现什么功能。
说明:对子类的实现要求,或者调用注意事项,请一并说明。
c.【强制】所有的类都必须添加创建者和创建日期。
说明:在设置模板时,注意 IDEA 的@author 为`${USER}`,而 eclipse 的@author 为`${user}`,大小写有区别,而日期的设置统一为 yyyy/MM/dd 的格式。
正例:
/**
*
*
@author yangguanbao
@date 2021/11/26
*
*
**/
d.【强制】方法内部单行注释,在被注释语句上方另起一行,使用 // 注释。方法内部多行注释使用 /* */注释,注意与代码对齐。
e.【强制】所有的枚举类型字段必须要有注释,说明每个数据项的用途。
f.【推荐】与其用半吊子英文来注释,不如用中文注释说清楚。专有名词与关键字保持英文原文即可。
反例:“TCP 连接超时”解释成“传输控制协议连接超时”,理解反而费脑筋。
g.【推荐】代码修改的同时,注释也要进行相应的修改,尤其是参数、返回值、异常、核心逻辑等。
说明:代码与注释更新不同步,就像公路网与导航软件更新不同步一样,如果导航软件严重滞后,就失去了导航的意义。
h.【推荐】在类中删除未使用的任何字段和方法、内部类;在方法中删除未使用的参数声明与内部变量。
i.【参考】谨慎注释掉代码。在上方详细说明,而不是简单地注释掉。如果无用,则删除。
说明:代码被注释掉有两种可能性:1)后续会恢复此段代码逻辑。2)永久不用。前者如果没有备注信息,难以知晓注释动机。后者建议直接删掉即可,假如需要查阅历史代码,登录代码仓库即可。
j.【参考】对于注释的要求:第一、能够准确反映设计思想和代码逻辑;第二、能够描述业务含义,使别
的程序员能够迅速了解到代码背后的信息。完全没有注释的大段代码对于阅读者形同天书,注释是给
自己看的,即使隔很长时间,也能清晰理解当时的思路;注释也是给继任者看的,使其能够快速接替
自己的工作。
k.【参考】好的命名、代码结构是自解释的,注释力求精简准确、表达到位。避免出现注释的另一个极端:过多过滥的注释,代码的逻辑一旦修改,修改注释又是相当大的负担。
反例:
// put elephant into fridge
put(elephant, fridge);
方法名 put,加上两个有意义的变量名称 elephant 和 fridge,已经说明了这是在干什么,语义清晰的代码不需要额外的注释。
l.【参考】特殊注释标记,请注明标记人与标记时间。注意及时处理这些标记,通过标记扫描,经常清理此类标记。线上故障有时候就是来源于这些标记处的代码。
1)待办事宜(TODO):(标记人,标记时间,[预计处理时间])表示需要实现,但目前还未实现的功能。这实际上是
一个 Javadoc 的标签,目前的 Javadoc 还没有实现,但已经被广泛使用。只能应用于类,接口和方法(因为它是一个
Javadoc 标签)。
2)错误,不能工作(FIXME):(标记人,标记时间,[预计处理时间])在注释中用 FIXME 标记某代码是错误的,而
且不能工作,需要及时纠正的情况。
10.前后端规约
a.【强制】前后端交互的 API,需要明确协议、域名、路径、请求方法、请求内容、状态码、响应体。
说明:
1)协议:生产环境必须使用 HTTPS。
2)路径:每一个 API 需对应一个路径,表示 API 具体的请求地址:
a)代表一种资源,只能为名词,推荐使用复数,不能为动词,请求方法已经表达动作意义。
b)URL 路径不能使用大写,单词如果需要分隔,统一使用下划线。
c)路径禁止携带表示请求内容类型的后缀,比如".json",".xml",通过 accept 头表达即可。
4)请求方法:对具体操作的定义,常见的请求方法如下:
a)GET:从服务器取出资源。
b)POST:在服务器新建一个资源。
c)PUT:在服务器更新资源。
d)DELETE:从服务器删除资源。
4)请求内容:URL 带的参数必须无敏感信息或符合安全要求;body 里带参数时必须设置 Content-Type。
5)响应体:响应体 body 可放置多种数据类型,由 Content-Type 头来确定。
b.【强制】前后端数据列表相关的接口返回,如果为空,则返回空数组[]或空集合{}。
说明:此条约定有利于数据层面上的协作更加高效,减少前端很多琐碎的 null 判断。
c.【强制】服务端发生错误时,返回给前端的响应信息必须包含 HTTP 状态码,errorCode、errorMessage、用户提示信息四个部分。
说明:四个部分的涉众对象分别是浏览器、前端开发、错误排查人员、用户。其中输出给用户的提示信息要求:简短清晰、提示友好,引导用户进行下一步操作或解释错误原因,提示信息可以包括错误原因、上下文环境、推荐操作等。
errorMessage:简要描述后端出错原因,便于错误排查人员快速定位问题,注意不要包含敏感数据信息。
正例:常见的 HTTP 状态码如下
1)200 OK:表明该请求被成功地完成,所请求的资源发送到客户端。
2)401 Unauthorized:请求要求身份验证,常见对于需要登录而用户未登录的情况。
3)403 Forbidden:服务器拒绝请求,常见于机密信息或复制其它登录用户链接访问服务器的情况。
4)404 NotFound:服务器无法取得所请求的网页,请求资源不存在。
5)500 InternalServerError:服务器内部错误。
d.【强制】在前后端交互的 JSON 格式数据中,所有的 key 必须为小写字母开始的 lowerCamelCase风格,符合英文表达习惯,且表意完整。
正例:errorCode / errorMessage / assetStatus / menuList / orderList / configFlag
反例:ERRORCODE / ERROR_CODE / error_message / error-message / errormessage
e.【强制】errorMessage 是前后端错误追踪机制的体现,可以在前端输出到 type="hidden" 文字类控件中,或者用户端的日志中,帮助我们快速地定位出问题。
f.【强制】对于需要使用超大整数的场景,服务端一律使用 String 字符串类型返回,禁止使用 Long 类型。
说明:Java 服务端如果直接返回 Long 整型数据给前端,Javascript 会自动转换为 Number 类型(注:此类型为双精度浮
点数,表示原理与取值范围等同于 Java 中的 Double)。Long 类型能表示的最大值是 263-1,在取值范围之内,超过 253
(9007199254740992)的数值转化为 Javascript 的 Number 时,有些数值会产生精度损失。扩展说明,在 Long 取值范
围内,任何 2 的指数次的整数都是绝对不会存在精度损失的,所以说精度损失是一个概率问题。若浮点数尾数位与指数位
空间不限,则可以精确表示任何整数,但很不幸,双精度浮点数的尾数位只有 52 位。
反例:通常在订单号或交易号大于等于 16 位,大概率会出现前后端订单数据不一致的情况。
比如,后端传输的 "orderId":362909601374617692,前端拿到的值却是:362909601374617660
g.【强制】HTTP 请求通过 URL 传递参数时,不能超过 2048 字节。
说明:不同浏览器对于 URL 的最大长度限制略有不同,并且对超出最大长度的处理逻辑也有差异,2048 字节是取所有浏览器的最小值。
反例:某业务将退货的商品 id 列表放在 URL 中作为参数传递,当一次退货商品数量过多时,URL 参数超长,传递到后端的参数被截断,导致部分商品未能正确退货。
h.【强制】HTTP 请求通过 body 传递内容时,必须控制长度,超出最大长度后,后端解析会出错。
说明:nginx 默认限制是 1MB,tomcat 默认限制为 2MB,当确实有业务需要传较大内容时,可以调大服务器端的限制。
i.【强制】在翻页场景中,用户输入参数的小于 1,则前端返回第一页参数给后端;后端发现用户输入的参数大于总页数,直接返回最后一页。
j.【强制】服务器内部重定向必须使用 forward;外部重定向地址必须使用 URL 统一代理模块生成,否则会因线上采用 HTTPS 协议而导致浏览器提示“不安全”,并且还会带来 URL 维护不一致的问题。
k.【推荐】服务器返回信息必须被标记是否可以缓存,如果缓存,客户端可能会重用之前的请求结果。
说明:缓存有利于减少交互次数,减少交互的平均延迟。
正例:http1.1 中,s-maxage 告诉服务器进行缓存,时间单位为秒,用法如下,
response.setHeader("Cache-Control", "s-maxage=" + cacheSeconds);
l.【推荐】服务端返回的数据,使用 JSON 格式而非 XML。
说明:尽管 HTTP 支持使用不同的输出格式,例如纯文本,JSON,CSV,XML,RSS 甚至 HTML。如果我们使用的面向用户的服务,应该选择 JSON 作为通信中使用的标准数据交换格式,包括请求和响应。此外,application/JSON 是一种通用的 MIME 类型,具有实用、精简、易读的特点。
m.【推荐】前后端的时间格式统一为"yyyy-MM-dd HH:mm:ss",统一为 GMT。
n.【参考】在接口路径中不要加入版本号,版本控制在 HTTP 头信息中体现,有利于向前兼容。
说明:当用户在低版本与高版本之间反复切换工作时,会导致迁移复杂度升高,存在数据错乱风险。
11.其他
a.【强制】在使用正则表达式时,利用好其预编译功能,可以有效加快正则匹配速度。
说明:不要在方法体内定义:Pattern pattern = Pattern.compile("规则");
b.【强制】避免用 ApacheBeanutils 进行属性的 copy。
说明:ApacheBeanUtils 性能较差,可以使用其他方案比如 SpringBeanUtils,CglibBeanCopier,注意均是浅拷贝。
c.【强制】velocity 调用 POJO 类的属性时,直接使用属性名取值即可,模板引擎会自动按规范调用 POJO的 getXxx(),如果是 boolean 基本数据类型变量(boolean 命名不需要加 is 前缀),会自动调 isXxx()方法。
说明:注意如果是 Boolean 包装类对象,优先调用 getXxx() 的方法。
d.【强制】后台输送给页面的变量必须加 $!{var} ——中间的感叹号。
说明:如果 var 等于 null 或者不存在,那么 ${var} 会直接显示在页面上。
e.【强制】注意 Math.random() 这个方法返回是 double 类型,注意取值的范围 0 ≤ x < 1(能够取到零值,注意除零异常),如果想获取整数类型的随机数,不要将 x 放大 10 的若干倍然后取整,直接使用 Random 对象的 nextInt 或者 nextLong 方法。
f.【强制】枚举 enum(括号内)的属性字段必须是私有且不可变。
g.【推荐】不要在视图模板中加入任何复杂的逻辑运算。
说明:根据 MVC 理论,视图的职责是展示,不要抢模型和控制器的活。
h.【推荐】任何数据结构的构造或初始化,都应指定大小,避免数据结构无限增长吃光内存。
i.【推荐】及时清理不再使用的代码段或配置信息。
说明:对于垃圾代码或过时配置,坚决清理干净,避免程序过度臃肿,代码冗余。
正例:对于暂时被注释掉,后续可能恢复使用的代码片断,在注释代码上方,统一规定使用三个斜杠(///)来说明注释掉代码的理由:
public static void hello() {
/// 业务方通知活动暂停
// Business business = new Business();
// business.active();
System.out.println("it's finished");
}
4.5 异常日志
01.错误码
a.【强制】错误码的制定原则:快速溯源、沟通标准化。
说明:错误码想得过于完美和复杂,就像康熙字典的生僻字一样,用词似乎精准,但是字典不容易随身携带且简单易懂。
正例:错误码回答的问题是谁的错?错在哪?
1)错误码必须能够快速知晓错误来源,可快速判断是谁的问题。
2)错误码必须能够进行清晰地比对(代码中容易 equals)。
3)错误码有利于团队快速对错误原因达到一致认知。
b.【强制】错误码不体现版本号和错误等级信息。
说明:错误码以不断追加的方式进行兼容。错误等级由日志和错误码本身的释义来决定。
c.【强制】全部正常,但不得不填充错误码时返回五个零:00000。
d.【强制】错误码为字符串类型,共 5 位,分成两个部分:错误产生来源+四位数字编号。
说明:错误产生来源分为 A/B/C,A 表示错误来源于用户,比如参数错误,用户安装版本过低,用户支付超时等问题;
B 表示错误来源于当前系统,往往是业务逻辑出错,或程序健壮性差等问题;C 表示错误来源于第三方服务,比如 CDN
服务出错,消息投递超时等问题;四位数字编号从 0001 到 9999,大类之间的步长间距预留 100,参考文末附表 3。
e.【强制】编号不与公司业务架构,更不与组织架构挂钩,以先到先得的原则在统一平台上进行,审批生效,编号即被永久固定。
f.【强制】错误码使用者避免随意定义新的错误码。
说明:尽可能在原有错误码附表中找到语义相同或者相近的错误码在代码中使用即可。
g.【强制】错误码不能直接输出给用户作为提示信息使用。
说明:堆栈(stack_trace)、错误信息(error_message) 、错误码(error_code)、提示信息(user_tip)是一个有效关联并互相转义的和谐整体,但是请勿互相越俎代庖。
h.【推荐】错误码之外的业务信息由 error_message 来承载,而不是让错误码本身涵盖过多具体业务属性。
i.【推荐】在获取第三方服务错误码时,向上抛出允许本系统转义,由 C 转为 B,并且在错误信息上带上原有的第三方错误码。
j.【参考】错误码分为一级宏观错误码、二级宏观错误码、三级宏观错误码。
说明:在无法更加具体确定的错误场景中,可以直接使用一级宏观错误码,分别是:A0001(用户端错误)、B0001(系统执行出错)、C0001(调用第三方服务出错)。
正例:调用第三方服务出错是一级,中间件错误是二级,消息服务出错是三级。
k.【参考】错误码的后三位编号与 HTTP 状态码没有任何关系。
l.【参考】错误码有利于不同文化背景的开发者进行交流与代码协作。
说明:英文单词形式的错误码不利于非英语母语国家(如阿拉伯语、希伯来语、俄罗斯语等)之间的开发者互相协作。
m.【参考】错误码即人性,感性认知+口口相传,使用纯数字来进行错误码编排不利于感性记忆和分类。
说明:数字是一个整体,每位数字的地位和含义是相同的。
反例:一个五位数字 12345,第 1 位是错误等级,第 2 位是错误来源,345 是编号,人的大脑不会主动地拆开并分辨每位数字的不同含义。
02.异常处理
a.【强制】Java 类库中定义的可以通过预检查方式规避的 RuntimeException 异常不应该通过 catch 的方式来处理,比如:NullPointerException,IndexOutOfBoundsException 等等。
说明:无法通过预检查的异常除外,比如,在解析字符串形式的数字时,可能存在数字格式错误,不得不通过 catch NumberFormatException 来实现。
正例:if (obj != null) {...}
反例:try { obj.method(); } catch (NullPointerException e) {…}
b.【强制】异常捕获后不要用来做流程控制,条件控制。
说明:异常设计的初衷是解决程序运行中的各种意外情况,且异常的处理效率比条件判断方式要低很多。
c.【强制】catch 时请分清稳定代码和非稳定代码,稳定代码指的是无论如何不会出错的代码。对于非稳定代码的 catch 尽可能进行区分异常类型,再做对应的异常处理。
说明:对大段代码进行 try-catch,使程序无法根据不同的异常做出正确的应激反应,也不利于定位问题,这是一种不负责任的表现。
正例:用户注册的场景中,如果用户输入非法字符,或用户名称已存在,或用户输入密码过于简单,在程序上作出分门别类的判断,并提示给用户。
d.【强制】捕获异常是为了处理它,不要捕获了却什么都不处理而抛弃之,如果不想处理它,请将该异常抛给它的调用者。最外层的业务使用者,必须处理异常,将其转化为用户可以理解的内容。
e.【强制】事务场景中,抛出异常被 catch 后,如果需要回滚,一定要注意手动回滚事务。
f.【强制】finally 块必须对资源对象、流对象进行关闭,有异常也要做 try-catch。
说明:如果 JDK7,可以使用 try-with-resources 方式。
g.【强制】不要在 finally 块中使用 return
说明:try 块中的 return 语句执行成功后,并不马上返回,而是继续执行 finally 块中的语句,如果此处存在 return 语句,则会在此直接返回,无情丢弃掉 try 块中的返回点。
反例:
private int x = 0;
public int checkReturn() {
try {
/
/ x 等于 1,此处不返回
return ++x;
finally {
/ 返回的结果是 2
return ++x;
}
}
h.【强制】捕获异常与抛异常,必须是完全匹配,或者捕获异常是抛异常的父类。
说明:如果预期对方抛的是绣球,实际接到的是铅球,就会产生意外情况。
i.【强制】在调用 RPC、二方包、或动态生成类的相关方法时,捕捉异常使用 Throwable 类进行拦截。
说明:通过反射机制来调用方法,如果找不到方法,抛出 NoSuchMethodException。
什么情况会抛出NoSuchMethodError 呢?二方包在类冲突时,仲裁机制可能导致引入非预期的版本使类的方法签名不匹配,或者在
字节码修改框架(比如:ASM)动态创建或修改类时,修改了相应的方法签名。这些情况,即使代码编译期是正确
的,但在代码运行期时,会抛出 NoSuchMethodError。
反例:足迹服务引入了高版本的 spring,导致运行到某段核心逻辑时,抛出 NoSuchMethodError 错误,catch 用的
类却是 Exception,堆栈向上抛,影响到上层业务。这是一个非核心功能点影响到核心应用的典型反例。
j.【推荐】方法的返回值可以为 null,不强制返回空集合,或者空对象等,必须添加注释充分说明什么情况下会返回 null 值。
说明:本规约明确防止 NPE 是调用者的责任。即使被调用方法返回空集合或者空对象,对调用者来说,也并非高枕无忧,必须考虑到远程调用失败,运行时异常等场景返回 null 的情况。
k.【推荐】防止 NPE,是程序员的基本修养,注意 NPE 产生的场景:
1)返回类型为基本数据类型,return 包装数据类型的对象时,自动拆箱有可能产生 NPE
反例:public int method() { return Integer 对象; },如果为 null,自动解箱抛 NPE
2)数据库的查询结果可能为 null。
3)集合里的元素即使 isNotEmpty,取出的数据元素也可能为 null。
4)远程调用返回对象时,一律要求进行空指针判断,防止 NPE。
5)对于 Session 中获取的数据,建议进行 NPE 检查,避免空指针。
6)级联调用 obj.getA().getB().getC();一连串调用,易产生 NPE。
正例:使用 JDK8 的 Optional 类来防止 NPE 问题。
l.【推荐】定义时区分 unchecked / checked 异常,避免直接抛出 new RuntimeException(),更不允许
抛出 Exception 或者 Throwable,应使用有业务含义的自定义异常。推荐业界已定义过的自定义异
常,如:DAOException / ServiceException 等。
m.【参考】对于公司外的 http / api 开放接口必须使用错误码,而应用内部推荐异常抛出;跨应用间
RPC 调用优先考虑使用 Result 方式,封装 isSuccess() 方法、错误码、错误简短信息;应用内部推荐异常抛出。
说明:关于 RPC 方法返回方式使用 Result 方式的理由:
1)使用抛异常返回方式,调用方如果没有捕获到就会产生运行时错误。
2)如果不加栈信息,只是 new 自定义异常,加入自己的理解的 error message,对于调用端解决问题的帮助不会太多。
如果加了栈信息,在频繁调用出错的情况下,数据序列化和传输的性能损耗也是问题
03.日志规约
a.【强制】应用中不可直接使用日志系统(Log4j、Logback)中的 API,而应依赖使用日志框架(SLF4J、
JCL—Jakarta Commons Logging)中的 API,使用门面模式的日志框架,有利于维护和各个类的日志处理方式统一。
说明:日志框架(SLF4J、JCL--Jakarta Commons Logging)的使用方式(推荐使用 SLF4J)
使用 SLF4J:
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
private static final Logger logger = LoggerFactory.getLogger(Test.class);
使用 JCL:
import org.apache.commons.logging.Log;
import org.apache.commons.logging.LogFactory;
private static final Log log = LogFactory.getLog(Test.class);
b.【强制】日志文件至少保存 15 天,因为有些异常具备以“周”为频次发生的特点。对于当天日志,以
“应用名.log”来保存,保存在/{统一目录}/{应用名}/logs/目录下,过往日志格式为:
{logname}.log.{保存日期},日期格式:yyyy-MM-dd
正例:以 mppserver 应用为例,日志保存/home/admin/mppserver/logs/mppserver.log,历史日志名称为 mppserver.log.2021-11-28
c.【强制】根据国家法律,网络运行状态、网络安全事件、个人敏感信息操作等相关记录,留存的日志不少于六个月,并且进行网络多机备份。
d.【强制】应用中的扩展日志(如打点、临时监控、访问日志等)命名方式:
appName_logType_logName.log。logType:日志类型,如 stats / monitor / access 等;
logName:日志描述。这种命名的好处:通过文件名就可知道日志文件属于什么应用,什么类型,什么目的,也有利于归类查找。
说明:推荐对日志进行分类,将错误日志和业务日志分开放,便于开发人员查看,也便于通过日志对系统进行及时监控。
正例:mppserver 应用中单独监控时区转换异常,如:mppserver_monitor_timeZoneConvert.log
e.【强制】在日志输出时,字符串变量之间的拼接使用占位符的方式。
说明:因为 String 字符串的拼接会使用 StringBuilder 的 append() 方式,有一定的性能损耗。使用占位符仅是替换动作,可以有效提升性能。
正例:logger.debug("Processing trade with id : {} and symbol : {}", id, symbol);
f.【强制】对于 trace / debug / info 级别的日志输出,必须进行日志级别的开关判断:
说明:虽然在 debug(参数) 的方法体内第一行代码 isDisabled(Level.DEBUG_INT) 为真时(Slf4j 的常见实现 Log4j 和
Logback),就直接 return,但是参数可能会进行字符串拼接运算。此外,如果 debug(getName()) 这种参数内有
getName() 方法调用,无谓浪费方法调用的开销。
正例:
// 如果判断为真,那么可以输出 trace 和 debug 级别的日志
if (logger.isDebugEnabled()) {
logger.debug("Current ID is: {} and name is: {}", id, getName());
}
g.【强制】避免重复打印日志,浪费磁盘空间,务必在日志配置文件中设置 additivity=false
正例:<logger name="com.taobao.dubbo.config" additivity="false">
h.【强制】生产环境禁止使用 System.out 或 System.err 输出或使用 e.printStackTrace() 打印异常堆栈。
说明:标准日志输出与标准错误输出文件每次 Jboss 重启时才滚动,如果大量输出送往这两个文件,容易造成文件大小超过操作系统大小限制。
i.【强制】异常信息应该包括两类信息:案发现场信息和异常堆栈信息。如果不处理,那么通过关键字throws 往上抛出。
正例:logger.error("inputParams: {} and errorMessage: {}", 各类参数或者对象 toString(), e.getMessage(), e);
j.【强制】日志打印时禁止直接用 JSON 工具将对象转换成 String。
说明:如果对象里某些 get 方法被覆写,存在抛出异常的情况,则可能会因为打印日志而影响正常业务流程的执行。
正例:打印日志时仅打印出业务相关属性值或者调用其对象的 toString() 方法。
k.【推荐】谨慎地记录日志。生产环境禁止输出 debug 日志;有选择地输出 info 日志;如果使用 warn来记录刚上线时的业务行为信息,一定要注意日志输出量的问题,避免把服务器磁盘撑爆,并记得及时删除这些观察日志。
说明:大量地输出无效日志,不利于系统性能提升,也不利于快速定位错误点。记录日志时请思考:这些日志真的有人看吗?看到这条日志你能做什么?能不能给问题排查带来好处?
l.【推荐】可以使用 warn 日志级别来记录用户输入参数错误的情况,避免用户投诉时,无所适从。如非必要,请不要在此场景打出 error 级别,避免频繁报警。
说明:注意日志输出的级别,error 级别只记录系统逻辑出错、异常或者重要的错误信息。
m.【推荐】尽量用英文来描述日志错误信息,如果日志中的错误信息用英文描述不清楚的话使用中文描述即可,否则容易产生歧义。
说明:国际化团队或海外部署的服务器由于字符集问题,使用全英文来注释和描述日志错误信息。
n.【推荐】为了保护用户隐私,日志文件中的用户敏感信息需要进行脱敏处理。
说明:日志排查问题时,推荐使用订单号、UUID 之类的唯一编号进行查询。
4.6 单元测试
00.单元测试
a.【强制】好的单元测试必须遵守 AIR 原则。
说明:单元测试在线上运行时,感觉像空气(AIR)一样感觉不到,但在测试质量的保障上,却是非常关键的。好的单元
测试宏观上来说,具有自动化、独立性、可重复执行的特点。
A:Automatic(自动化)
I:Independent(独立性)
R:Repeatable(可重复)
b.【强制】单元测试应该是全自动执行的,并且非交互式的。测试用例通常是被定期执行的,执行过程必须
完全自动化才有意义。输出结果需要人工检查的测试不是一个好的单元测试。不允许使用 System.out 来
进行人肉验证,单元测试必须使用 assert 来验证。
c.【强制】保持单元测试的独立性。为了保证单元测试稳定可靠且便于维护,单元测试用例之间决不能互相
调用,也不能依赖执行的先后次序。
反例:method2 需要依赖 method1 的执行,将执行结果作为 method2 的输入。
d.【强制】单元测试是可以重复执行的,不能受到外界环境的影响。
说明:单元测试通常会被放到持续集成中,每次有代码 push 时单元测试都会被执行。如果单测对外部环境(网络、服务、中间件等)有依赖,容易导致持续集成机制的不可用。
正例:为了不受外界环境影响,要求设计代码时就把 SUT(Software under test)的依赖改成注入,在测试时用 Spring这样的 DI 框架注入一个本地(内存)实现或者 Mock 实现。
e.【强制】对于单元测试,要保证测试粒度足够小,有助于精确定位问题。单测粒度至多是类级别,一般是方法级别。
说明:测试粒度小才能在出错时尽快定位到出错的位置。单元测试不负责检查跨类或者跨系统的交互逻辑,那是集成测试的领域。
f.【强制】核心业务、核心应用、核心模块的增量代码确保单元测试通过。
说明:新增代码及时补充单元测试,如果新增代码影响了原有单元测试,请及时修正。
g.【强制】单元测试代码必须写在如下工程目录: src/test/java,不允许写在业务代码目录下。
说明:源码编译时会跳过此目录,而单元测试框架默认是扫描此目录。
h.【推荐】单测的基本目标:语句覆盖率达到 70%;核心模块的语句覆盖率和分支覆盖率都要达到 100%
说明:在工程规约的应用分层中提到的 DAO 层,Manager 层,可重用度高的 Service,都应该进行单元测试。
i.【推荐】编写单元测试代码遵守 BCDE 原则,以保证被测试模块的交付质量。
B:Border,边界值测试,包括循环边界、特殊取值、特殊时间点、数据顺序等。
C:Correct,正确的输入,并得到预期的结果。
D:Design,与设计文档相结合,来编写单元测试。
E:Error,强制错误信息输入(如:非法数据、异常流程、业务允许外等),并得到预期的结果。
j.【推荐】对于数据库相关的查询,更新,删除等操作,不能假设数据库里的数据是存在的,或者直接操作数据库把数据插入进去,请使用程序插入或者导入数据的方式来准备数据。
反例:删除某一行数据的单元测试,在数据库中,先直接手动增加一行作为删除目标,但是这一行新增数据并不符合业务插入规则,导致测试结果异常。
k.【推荐】和数据库相关的单元测试,可以设定自动回滚机制,不给数据库造成脏数据。或者对单元测试产生的数据有明确的前后缀标识。
正例:在基础技术部的内部单元测试中,使用 FOUNDATION_UNIT_TEST_的前缀来标识单元测试相关代码。
l.【推荐】对于不可测的代码在适当的时机做必要的重构,使代码变得可测避免为了达到测试要求而书写不规范测试代码。
m.【推荐】在设计评审阶段,开发人员需要和测试人员一起确定单元测试范围,单元测试最好覆盖所有测试用例(UC)。
n.【推荐】单元测试作为一种质量保障手段,在项目提测前完成单元测试,不建议项目发布后补充单元测试用例。
o.【参考】为了更方便地进行单元测试,业务代码应避免以下情况:构造方法中做的事情过多。
存在过多的全局变量和静态方法。
存在过多的外部依赖。
存在过多的条件语句。
说明:多层条件语句建议使用卫语句、策略模式、状态模式等方式重构。
p.【参考】不要对单元测试存在如下误解:
那是测试同学干的事情。本文是开发手册,凡是本文内容都是与开发同学强相关的。
单元测试代码是多余的。系统的整体功能与各单元部件的测试正常与否是强相关的。
单元测试代码不需要维护。一年半载后,那么单元测试几乎处于废弃状态。
单元测试与线上故障没有辩证关系。好的单元测试能够最大限度地规避线上故障。
4.7 安全规约
00.安全规约
a.【强制】隶属于用户个人的页面或者功能必须进行权限控制校验。
说明:防止没有做水平权限校验就可随意访问、修改、删除别人的数据,比如查看他人的私信内容。
b.【强制】用户敏感数据禁止直接展示,必须对展示数据进行脱敏。
正例:中国大陆个人手机号码显示:139****1219,隐藏中间 4 位,防止隐私泄露。
c.【强制】用户输入的 SQL 参数严格使用参数绑定或者 METADATA 字段值限定,防止 SQL 注入,禁止字符串拼接 SQL 访问数据库。
反例:某系统签名大量被恶意修改,即是因为对于危险字符#--没有进行转义,导致数据库更新时,where 后边的信息被注释掉,对全库进行更新。
d.【强制】用户请求传入的任何参数必须做有效性验证。
说明:
忽略参数校验可能导致:
页面 page size 过大导致内存溢出
恶意 order by 导致数据库慢查询
缓存击穿
SSRF
任意重定向
SQL 注入,Shell 注入,反序列化注入
正则输入源串拒绝服务 ReDoS,扩展:Java 代码用正则来验证客户端的输入,有些正则写法验证普通用户输入没有问题,但是如果攻击人员使用的是特殊构造的字符串来验证,有可能导致死循环的结果。
e.【强制】禁止向 HTML 页面输出未经安全过滤或未正确转义的用户数据。
说明:XSS 跨站脚本攻击。它指的是恶意攻击者往 Web 页面里插入恶意 html 代码,当用户浏览时,嵌入其中 Web 里面的 html 代码会被执行,造成获取用户 cookie、钓鱼、获取用户页面数据、蠕虫、挂马等危害。
f.【强制】表单、AJAX 提交必须执行 CSRF 安全验证。
说明:CSRF (Cross-site request forgery) 跨站请求伪造是一类常见编程漏洞。对于存在 CSRF 漏洞的应用/网站,攻击者可以事先构造好 URL,只要受害者用户一访问,后台便在用户不知情的情况下对数据库中用户参数进行相应修改。
g.【强制】URL 外部重定向传入的目标地址必须执行白名单过滤。
说明:攻击者通过恶意构造跳转的链接,可以向受害者发起钓鱼攻击。
h.【强制】在使用平台资源,譬如短信、邮件、电话、下单、支付,必须实现正确的防重放的机制,如数量限制、疲劳度控制、验证码校验,避免被滥刷而导致资损。
说明:如注册时发送验证码到手机,如果没有限制次数和频率,那么可以利用此功能骚扰到其它用户,并造成短信平台资源浪费。
i.【强制】对于文件上传功能,需要对于文件大小、类型进行严格检查和控制。
说明:攻击者可以利用上传漏洞,上传恶意文件到服务器,并且远程执行,达到控制网站服务器的目的。
j.【强制】配置文件中的密码需要加密。
k.【推荐】发贴、评论、发送等即时消息,需要用户输入内容的场景。必须实现防刷、内容违禁词过滤等风控策略。
4.8 MySQL数据库
01.建表规约
a.【强制】表达是与否概念的字段,必须使用 is_xxx 的方式命名,数据类型是 unsigned tinyint(1 表示是,0 表示否)。
注意:POJO 类中的任何布尔类型的变量,都不要加 is 前缀,所以,需要在<resultMap>设置从 is_xxx 到 Xxx 的映射关系。数据库表示是与否的值,使用 tinyint 类型,坚持 is_xxx 的命名方式是为了明确其取值含义与取值范围。
说明:任何字段如果为非负数,必须是 unsigned。
正例:表达逻辑删除的字段名 is_deleted,1 表示删除,0 表示未删除。
b.【强制】表名、字段名必须使用小写字母或数字,禁止出现数字开头禁止两个下划线中间只出现数字。数
据库字段名的修改代价很大,因为无法进行预发布,所以字段名称需要慎重考虑。
说明:MySQL 在 Windows 下不区分大小写,但在 Linux 下默认是区分大小写。因此,数据库名、表名、字段名,都不允许出现任何大写字母,避免节外生枝。
正例:aliyun_admin,rdc_config,level3_name
反例:AliyunAdmin,rdcConfig,level_3_name
c.【强制】表名不使用复数名词。
说明:表名应该仅仅表示表里面的实体内容,不应该表示实体数量,对应于 DO 类名也是单数形式,符合表达习惯。
d.【强制】禁用保留字,如 desc、range、match、delayed 等,请参考 MySQL 官方保留字。
e.【强制】主键索引名为 pk_字段名;唯一索引名为 uk_字段名;普通索引名则为 idx_字段名。
说明:pk_即 primary key;uk_即 unique key;idx_即 index 的简称。
f.【强制】小数类型为 decimal,禁止使用 float 和 double。
说明:在存储的时候,float 和 double 都存在精度损失的问题,很可能在比较值的时候,得到不正确的结果。如果存储的数据范围超过 decimal 的范围,建议将数据拆成整数和小数并分开存储。
g.【强制】如果存储的字符串长度几乎相等,使用 char 定长字符串类型。
h.【强制】varchar 是可变长字符串,不预先分配存储空间,长度不要超过 5000,如果存储长度大于此值,定义字段类型为 text,独立出来一张表,用主键来对应,避免影响其它字段索引率。
i.【强制】表必备三字段:id,create_time,update_time。
说明:其中 id 必为主键,类型为 bigint unsigned、单表时自增、步长为 1。create_time,update_time 的类型均为datetime 类型,如果要记录时区信息,那么类型设置为 timestamp。
j.【强制】在数据库中不能使用物理删除操作,要使用逻辑删除。
说明:逻辑删除在数据删除后可以追溯到行为操作。不过会使得一些情况下的唯一主键变得不唯一,需要根据情况来酌情解决。
k.【推荐】表的命名最好是遵循“业务名称_表的作用”。
正例:alipay_task / force_project / trade_config / tes_question
l.【推荐】库名与应用名称尽量一致。
m.【推荐】如果修改字段含义或对字段表示的状态追加时,需要及时更新字段注释。
n.【推荐】字段允许适当冗余,以提高查询性能,但必须考虑数据一致。冗余字段应遵循:
1)不是频繁修改的字段。
2)不是唯一索引的字段。
3)不是 varchar 超长字段,更不能是 text 字段。
正例:各业务线经常冗余存储商品名称,避免查询时需要调用 IC 服务获取。
o.【推荐】单表行数超过 500 万行或者单表容量超过 2GB,才推荐进行分库分表。
说明:如果预计三年后的数据量根本达不到这个级别,请不要在创建表时就分库分表。
p.【参考】合适的字符存储长度,不但节约数据库表空间、节约索引存储,更重要的是提升检索速度。
正例:无符号值可以避免误存负数,且扩大了表示范围:
对象 年龄 区间类型 字节 表示范围
人 150岁之内 tinyint unsigned 无 符号值:0到255
龟 数百岁 smallint unsigned 2 无符号值:0到65535
恐龙化石 数千万年 int unsigned 4 无符号值:0到约43亿
太阳 约50亿年 bigint unsigned 8 无符号值:0到约10的19次方
02.索引规约
a.【强制】业务上具有唯一特性的字段,即使是组合字段,也必须建成唯一索引。
说明:不要以为唯一索引影响了 insert 速度,这个速度损耗可以忽略,但提高查找速度是明显的;另外,即使在应用层
做了非常完善的校验控制,只要没有唯一索引,根据墨菲定律,必然有脏数据产生。
b.【强制】超过三个表禁止 join。需要 join 的字段,数据类型保持绝对一致;多表关联查询时,保证被关联的字段需要有索引。
说明:即使双表 join 也要注意表索引、SQL 性能。
c.【强制】在 varchar 字段上建立索引时,必须指定索引长度,没必要对全字段建立索引,根据实际文本区分度决定索引长度。
说明:索引的长度与区分度是一对矛盾体,一般对字符串类型数据,长度为 20 的索引,区分度会高达 90%以上,可以使用 count(distinct left(列名,索引长度)) / count(*) 的区分度来确定。
d.【强制】页面搜索严禁左模糊或者全模糊,如果需要请走搜索引擎来解决。
说明:索引文件具有 B-Tree 的最左前缀匹配特性,如果左边的值未确定,那么无法使用此索引。
e.【推荐】如果有 order by 的场景,请注意利用索引的有序性。order by 最后的字段是组合索引的一部分,并且放在索引组合顺序的最后,避免出现 filesort 的情况,影响查询性能。
正例:where a = ? and b = ? order by c;索引:a_b_c
反例:索引如果存在范围查询,那么索引有序性无法利用,如:WHERE a > 10 ORDER BY b;索引 a_b 无法排序。
f.【推荐】利用覆盖索引来进行查询操作,避免回表。
说明:如果一本书需要知道第 11 章是什么标题,会翻开第 11 章对应的那一页吗?目录浏览一下就好,这个目录就是起到覆盖索引的作用。
正例:能够建立索引的种类分为主键索引、唯一索引、普通索引三种,而覆盖索引只是一种查询的一种效果,用 explain的结果,extra 列会出现:using index。
g.【推荐】利用延迟关联或者子查询优化超多分页场景。
说明:MySQL 并不是跳过 offset 行,而是取 offset+N 行,然后返回放弃前 offset 行,返回 N 行,那当 offset 特别大的时候,效率就非常的低下,要么控制返回的总页数,要么对超过特定阈值的页数进行 SQL 改写。
正例:先快速定位需要获取的 id 段,然后再关联:
SELECT t1.* FROM 表 1 as t1 , (select id from 表 1 where 条件 LIMIT 100000 , 20) as t2 where t1.id = t2.id
h.【推荐】SQL 性能优化的目标:至少要达到 range 级别,要求是 ref 级别,如果可以是 const 最好。
1) consts 单表中最多只有一个匹配行(主键或者唯一索引),在优化阶段即可读取到数据。
2) ref 指的是使用普通的索引(normal index)。
3) range 对索引进行范围检索。
反例:explain 表的结果,type = index,索引物理文件全扫描,速度非常慢,这个 index 级别比较 range 还低,与全表扫描是小巫见大巫
i.【推荐】建组合索引的时候,区分度最高的在最左边。
正例:如果 where a = ? and b = ?,a 列的几乎接近于唯一值,那么只需要单建 idx_a 索引即可。
说明:存在非等号和等号混合判断条件时,在建索引时,请把等号条件的列前置。如:where c > ? and d = ? 那么即使c 的区分度更高,也必须把 d 放在索引的最前列,即建立组合索引 idx_d_c。
j.【推荐】防止因字段类型不同造成的隐式转换,导致索引失效。
k.【参考】创建索引时避免有如下极端误解:
1)索引宁滥勿缺。认为一个查询就需要建一个索引。
2)吝啬索引的创建。认为索引会消耗空间、严重拖慢记录的更新以及行的新增速度。
3)抵制唯一索引。认为唯一索引一律需要在应用层通过“先查后插”方式解决。
03.SQL语句
a.【强制】不要使用 count(列名) 或 count(常量) 来替代 count(*),count(*) 是 SQL92 定义的标准统计行数的语法,跟数据库无关,跟 NULL 和非 NULL 无关。
说明:count(*) 会统计值为 NULL 的行,而 count(列名) 不会统计此列为 NULL 值的行。
b.【强制】count(distinct col) 计算该列除 NULL 之外的不重复行数,注意 count(distinct col1 , col2) 如果其中一列全为 NULL,那么即使另一列有不同的值,也返回为 0。
c.【强制】当某一列的值全是 NULL 时,count(col) 的返回结果为 0;但 sum(col) 的返回结果为 NULL,因此使用 sum() 时需注意 NPE 问题。
正例:可以使用如下方式来避免 sum 的 NPE 问题:SELECT IFNULL(SUM(column) , 0) FROM table;
d.【强制】使用 ISNULL() 来判断是否为 NULL 值。
说明:NULL 与任何值的直接比较都为 NULL。
1)NULL<>NULL 的返回结果是 NULL,而不是 false。
2)NULL=NULL 的返回结果是 NULL,而不是 true。
3)NULL<>1 的返回结果是 NULL,而不是 true。
反例:在 SQL 语句中,如果在 null 前换行,影响可读性。
select * from table where column1 is null and column3 is not null;而 ISNULL(column) 是一个整体,简洁易懂。
从性能数据上分析,ISNULL(column) 执行效率更快一些。
e.【强制】代码中写分页查询逻辑时,若 count 为 0 应直接返回,避免执行后面的分页语句。
f.【强制】不得使用外键与级联,一切外键概念必须在应用层解决。
说明:(概念解释)学生表中的 student_id 是主键,那么成绩表中的 student_id 则为外键。如果更新学生表中的student_id,
同时触发成绩表中的 student_id 更新,即为级联更新。外键与级联更新适用于单机低并发,不适合分布式、
高并发集群;级联更新是强阻塞,存在数据库更新风暴的风险;外键影响数据库的插入速度。
g.【强制】禁止使用存储过程,存储过程难以调试和扩展,更没有移植性。
h.【强制】数据订正(特别是删除或修改记录操作)时,要先 select,避免出现误删除的情况,确认无误才能执行更新语句。
i.【强制】对于数据库中表记录的查询和变更,只要涉及多个表,都需要在列名前加表的别名(或表名)进行限定。
说明:对多表进行查询记录、更新记录、删除记录时,如果对操作列没有限定表的别名(或表名),并且操作列在多个表中存在时,就会抛异常。
正例:select t1.name from first_table as t1 , second_table as t2 where t1.id = t2.id;
反例:在某业务中,由于多表关联查询语句没有加表的别名(或表名)的限制,正常运行两年后,最近在某个表中增加一个同名字段,在预发布环境做数据库变更后,线上查询语句出现出 1052 异常:
Column 'name' infield list is ambiguous。
j.【推荐】SQL 语句中表的别名前加 as,并且以 t1、t2、t3、...的顺序依次命名。
说明:
1)别名可以是表的简称,或者是依照表在 SQL 语句中出现的顺序,以 t1、t2、t3 的方式命名。
2)别名前加 as 使别名更容易识别。
正例:select t1.name from first_table as t1 , second_table as t2 where t1.id = t2.id;
k.【推荐】in 操作能避免则避免,若实在避免不了,需要仔细评估 in 后边的集合元素数量,控制在1000 个之内。
l.【参考】因国际化需要,所有的字符存储与表示,均采用 utf8mb4 字符集,字符计数方法需要注意。
说明:
SELECT LENGTH("轻松工作");--返回为 12
SELECT CHARACTER_LENGTH("轻松工作");--返回为 4
表情需要用 utf8mb4 来进行存储,注意它与 utf8 编码的区别。
m.【参考】TRUNCATE TABLE 比 DELETE 速度快,且使用的系统和事务日志资源少,但 TRUNCATE无事务且不触发 trigger,有可能造成事故,故不建议在开发代码中使用此语句。
说明:TRUNCATE TABLE 在功能上与不带 WHERE 子句的 DELETE 语句相同。
04.ORM映射
a.【强制】在表查询中,一律不要使用 * 作为查询的字段列表,需要哪些字段必须明确写明。
说明:
1)增加查询分析器解析成本。
2)增减字段容易与 resultMap 配置不一致。
3)无用字段增加网络消耗,尤其是 text 类型的字段。
b.【强制】POJO 类的布尔属性不能加 is,而数据库字段必须加 is_,要求在 resultMap 中进行字段与属性之间的映射。
说明:参见定义 POJO 类以及数据库字段定义规定,在 sql.xml 增加映射,是必须的。
c.【强制】不要用 resultClass 当返回参数,即使所有类属性名与数据库字段一一对应,也需要定义<resultMap>;反过来,每一个表也必然有一个<resultMap>与之对应。
说明:配置映射关系,使字段与 DO 类解耦,方便维护。
d.【强制】sql.xml 配置参数使用:#{},#param# 不要使用 ${} 此种方式容易出现 SQL 注入。
e.【强制】iBATIS 自带的 queryForList(String statementName,int start,int size) 不推荐使用。
说明:其实现方式是在数据库取到 statementName 对应的 SQL 语句的所有记录,再通过 subList 取 start,size的子集合,线上因为这个原因曾经出现过 OOM。
正例:
Map<String, Object> map = new HashMap<>(16);
map.put("start", start);
map.put("size", size);
f.【强制】不允许直接拿 HashMap 与 Hashtable 作为查询结果集的输出。
反例:某同学为避免写一个<resultMap>xxx</resultMap>,直接使用 Hashtable 来接收数据库返回结果,结果出现日常是把 bigint 转成 Long 值,而线上由于数据库版本不一样,解析成 BigInteger,导致线上问题。
g.【强制】更新数据表记录时,必须同时更新记录对应的 update_time 字段值为当前时间。
h.【推荐】不要写一个大而全的数据更新接口。传入为 POJO 类,不管是不是自己的目标更新字段,都进行update table set c1 = value1 , c2 = value2 , c3 = value3;这是不对的。执行 SQL 时,不要更新无改动的字段,一是易出错;二是效率低;三是增加 binlog 存储。
i.【参考】@Transactional 事务不要滥用。事务会影响数据库的 QPS,另外使用事务的地方需要考虑各方面的回滚方案,包括缓存回滚、搜索引擎回滚、消息补偿、统计修正等。
j.【参考】<isEqual>中的 compareValue 是与属性值对比的常量,一般是数字,表示相等时带上此条件;<isNotEmpty>表示不为空且不为 null 时执行;<isNotNull>表示不为 null 值时执行。
99.强制使用DATETIME类型而非TIMESTAMP的原因
a.时区问题
TIMESTAMP 是一个带有时区的类型,它会根据数据库服务器的时区和存储的时区进行转换。这意味着在不同的环境中(如开发、测试和生产环境),同一个时间值可能会因时区不同而导致不同的结果,增加了处理上的复杂性。
DATETIME 是无时区的类型,存储的是具体的时间值,不受时区影响,因此在不同环境中表现一致。
b.存储限制
TIMESTAMP 在某些数据库中(如 MySQL)有存储限制,通常只能存储到 2038 年(Unix 时间戳的限制),而 DATETIME 可以存储到 9999 年,适用范围更广。
c.兼容性问题
不同数据库系统对于 TIMESTAMP 的实现可能存在差异,使用 DATETIME 可以在不同数据库之间提供更好的兼容性。
d.数据迁移与备份
在进行数据迁移或备份时,TIMESTAMP 的时间转换可能会引起混淆或错误,而 DATETIME 不会,因为它是固定的。
4.9 工程结构
01.应用分层
a.【推荐】根据业务架构实践,结合业界分层规范与流行技术框架分析,
推荐分层结构如图所示,默认上层依赖于下层,箭头关系表示可直接依赖,如:开放 API 层可以依赖于 Web 层(Controller 层),也可以直接依赖于 Service 层,依此类推
-----------------------------------------------------------------------------------------------------
开放 API 层:可直接封装 Service 接口暴露成 RPC 接口;通过 Web 封装成 http 接口;网关控制层等。
终端显示层:各个端的模板渲染并执行显示的层。当前主要是 velocity 渲染,JS 渲染,JSP 渲染,移动端展示等。
Web 层:主要是对访问控制进行转发,各类基本参数校验,或者不复用的业务简单处理等。
Service 层:相对具体的业务逻辑服务层。
Manager 层:通用业务处理层,它有如下特征
1)对第三方平台封装的层,预处理返回结果及转化异常信息,适配上层接口。
2)对 Service 层通用能力的下沉,如缓存方案、中间件通用处理。
3)与 DAO 层交互,对多个 DAO 的组合复用。
DAO 层:数据访问层,与底层 MySQL、Oracle、Hbase、OceanBase等进行数据交互。
第三方服务:包括其它部门 RPC 服务接口,基础平台,其它公司的 HTTP 接口,如淘宝开放平台、支付宝付款服务、高德地图服务等。
外部数据接口:外部(应用)数据存储服务提供的接口,多见于数据迁移场景中。
b.【参考】分层异常处理规约
在 DAO 层,产生的异常类型有很多,无法用细粒度的异常进行 catch,
使用 catch(Exception e) 方式,并 throw new DAOException(e),不需要打印日志,因为日志在
Manager 或 Service 层一定需要捕获并打印到日志文件中去,如果同台服务器再打日志,浪费性能和存
储。在 Service 层出现异常时,必须记录出错日志到磁盘,尽可能带上参数和上下文信息,相当于保护案
发现场。Manager 层与 Service 同机部署,日志方式与 DAO 层处理一致,如果是单独部署,则采用与
Service 一致的处理方式。Web 层绝不应该继续往上抛异常,因为已经处于顶层,如果意识到这个异常
将导致页面无法正常渲染,那么就应该直接跳转到友好错误页面,尽量加上友好的错误提示信息。开放
接口层要将异常处理成错误码和错误信息方式返回。
c.【参考】分层领域模型规约
DO(Data Object):此对象与数据库表结构一一对应,通过 DAO 层向上传输数据源对象。
DTO(Data Transfer Object):数据传输对象,Service 或 Manager 向外传输的对象。
BO(Business Object):业务对象,可以由 Service 层输出的封装业务逻辑的对象。
Query:数据查询对象,各层接收上层的查询请求。注意超过 2 个参数的查询封装,禁止使用 Map 类来传输。
VO(View Object):显示层对象,通常是 Web 向模板渲染引擎层传输的对象。
02.二方库依赖
a.【强制】定义 GAV 遵从以下规则:
1) GroupId 格式:com.{公司/BU}.业务线.[子业务线],最多 4 级。
说明:{公司/BU}例如:alibaba / taobao / tmall / kaikeba 等 BU 一级;子业务线可选。
正例:com.taobao.jstorm 或 com.alibaba.dubbo.register
2) ArtifactId 格式:产品线名-模块名。语义不重复不遗漏,先到中央仓库去查证一下。
正例:dubbo-client / fastjson-api / jstorm-tool
3) Version:详细规定参考下方。
b.【强制】二方库版本号命名方式:主版本号.次版本号.修订号
1)主版本号:产品方向改变,或者大规模 API 不兼容,或者架构不兼容升级。
2)次版本号:保持相对兼容性,增加主要功能特性,影响范围极小的 API 不兼容修改。
3)修订号:保持完全兼容性,修复 BUG、新增次要功能特性等。
说明:注意起始版本号必须为:1.0.0,而不是 0.0.1。
反例:仓库内某二方库版本号从 1.0.0.0 开始,一直默默“升级”成 1.0.0.64,完全失去版本的语义信息。
c.【强制】线上应用不要依赖 SNAPSHOT 版本(安全包除外);
正式发布的类库必须先去中央仓库进行查证,使 RELEASE 版本号有延续性,且版本号不允许覆盖升级。
说明:不依赖 SNAPSHOT 版本是保证应用发布的幂等性。另外,也可以加快编译时的打包构建。
d.【强制】二方库的新增或升级,保持除功能点之外的其它 jar 包仲裁结果不变。如果有改变,必须明确评估和验证。
说明:在升级时,进行 dependency:resolve 前后信息比对,如果仲裁结果完全不一致,那么通过 dependency:tree 命令,找出差异点,进行<exclude>排除 jar 包。
e.【强制】二方库里可以定义枚举类型,参数可以使用枚举类型,但是接口返回值不允许使用枚举类型或者包含枚举类型的 POJO 对象。
f.【强制】二方库定制包的命名方式,在规定的版本号之后加“-英文说明[序号]”,英文说明可以是部门简称、业务名称,序号直接紧跟在英文说明之后,表示此定制包的顺序号。
说明:fastjson 给 SCM 定制的版本号:1.0.0-SCM1。注:请尽可能在应用端来解决类冲突和加载问题,避免随意发布此类定制包。
g.【强制】依赖于一个二方库群时,必须定义一个统一的版本变量,避免版本号不一致。
说明:依赖 springframework-core,-context,-beans,它们都是同一个版本,可以定义一个变量来保存版本:${spring.version},定义依赖的时候,引用该版本。
h.【强制】禁止在子项目的 pom 依赖中出现相同的 GroupId,相同的 ArtifactId,但是不同的 Version。
说明:在本地调试时会使用各子项目指定的版本号,但是合并成一个 war,只能有一个版本号出现在最后的 lib 目录中。曾经出现过线下调试是正确的,发布到线上却出故障的先例。
i.【推荐】底层基础技术框架、核心数据管理平台、或近硬件端系统谨慎引入第三方实现。
j.【推荐】所有 pom 文件中的依赖声明放在<dependencies>语句块中,所有版本仲裁放在<dependencyManagement>语句块中。
说明:<dependencyManagement>里只是声明版本,并不实现引入,因此子项目需要显式的声明依赖,version 和scope 都读取自父 pom。而<dependencies>所有声明在主 pom 的<dependencies>里的依赖都会自动引入,并默认被所有的子项目继承。
k.【推荐】二方库不要有配置项,最低限度不要再增加配置项。
l.【推荐】不要使用不稳定的工具包或者 Utils 类。
说明:不稳定指的是提供方无法做到向下兼容,在编译阶段正常,但在运行时产生异常,因此,尽量使用业界稳定的二方工具包。
m.【参考】为避免应用二方库的依赖冲突问题,二方库发布者应当遵循以下原则:
1)精简可控原则。移除一切不必要的 API 和依赖,只包含 Service API、必要的领域模型对象、Utils 类、常量、枚举等。如果依赖其它二方库,尽量是 provided 引入,让二方库使用者去依赖具体版本号;无 log 具体实现,只依赖日志框架。
2)稳定可追溯原则。每个版本的变化应该被记录,二方库由谁维护,源码在哪里,都需要能方便查到。除非用户主动升级版本,否则公共二方库的行为不应该发生变化。
03.服务器
a.【强制】调用远程操作必须有超时设置。
说明:类似于 HttpClient 的超时设置需要自己明确去设置 Timeout。根据经验表明,无数次的故障都是因为没有设置超时时间。
b.【推荐】客户端设置远程接口方法的具体超时时间(单位 ms)
超时设置生效顺序一般为:1)客户端 Special Method;2)客户端接口级别;3)服务端 Special Method;4)服务端接口级别。
c.【推荐】高并发服务器建议调小 TCP 协议的 time_wait 超时时间。
说明:操作系统默认 240 秒后,才会关闭处于 time_wait 状态的连接,在高并发访问下,服务器端会因为处于time_wait 的连接数太多,可能无法建立新的连接,所以需要在服务器上调小此等待值。
正例:在 linux 服务器上请通过变更/etc/sysctl.conf 文件去修改该缺省值(秒):net.ipv4.tcp_fin_timeout=30
d.【推荐】调大服务器所支持的最大文件句柄数(File Descriptor,简写为 fd)
说明:主流操作系统的设计是将 TCP / UDP 连接采用与文件一样的方式去管理,即一个连接对应于一个 fd。主流的 linux
服务器默认所支持最大 fd 数量为 1024,当并发连接数很大时很容易因为 fd 不足而出现“open too many files”错误,
导致新的连接无法建立。建议将 linux 服务器所支持的最大句柄数调高数倍(与服务器的内存数量相关)。
e.【推荐】给 JVM 环境参数设置-XX:+HeapDumpOnOutOfMemoryError 参数,让 JVM 碰到 OOM 场景时输出 dump 信息。
说明:OOM 的发生是有概率的,甚至相隔数月才出现一例,出错时的堆内信息对解决问题非常有帮助。
f.【推荐】在线上生产环境
JVM 的 Xms 和 Xmx 设置一样大小的内存容量,避免在 GC 后调整堆大小带来的压力。
g.【推荐】了解每个服务大致的平均耗时
可以通过独立配置线程池,将较慢的服务与主线程池隔离开,免得不同服务的线程同归于尽。
h.【参考】服务器内部重定向必须使用 forward;
外部部重定向地址必须使用 URL Broker 生成,否则因线上采用 HTTPS 协议而导致浏览器提示“不安全”。此外,还会带来 URL 维护不一致的问题。
4.10 设计规约
01.【强制】存储方案和底层数据结构的设计获得评审一致通过,并沉淀成为文档。
说明:有缺陷的底层数据结构容易导致系统风险上升,可扩展性下降,重构成本也会因历史数据迁移和系统平滑过渡而
陡然增加,所以,存储方案和数据结构需要认真地进行设计和评审,生产环境提交执行后,需要进行 double check。
正例:评审内容包括存储介质选型、表结构设计能否满足技术方案、存取性能和存储空间能否满足业务发展、表或字段
之间的辩证关系、字段名称、字段类型、索引等;数据结构变更(如在原有表中新增字段)也需要在评审通过后上线。
02.【强制】在需求分析阶段,如果与系统交互的 User 超过一类并且相关的 UseCase 超过 5 个,
使用用例图来表达更加清晰的结构化需求。
03.【强制】如果某个业务对象的状态超过 3 个,使用状态图来表达并且明确状态变化的各个触发条件。
说明:状态图的核心是对象状态,首先明确对象有多少种状态,然后明确两两状态之间是否存在直接转换关系,再明确
触发状态转换的条件是什么。
正例:淘宝订单状态有已下单、待付款、已付款、待发货、已发货、已收货等。比如已下单与已收货这两种状态之间是不可能有直接转换关系的。
04.【强制】如果系统中某个功能的调用链路上的涉及对象超过 3 个,使用时序图来表达并且明确各调用环节的输入与输出。
说明:时序图反映了一系列对象间的交互与协作关系,清晰立体地反映系统的调用纵深链路。
05.【强制】如果系统中模型类超过 5 个,且存在复杂的依赖关系,使用类图来表达并且明确类之间的关系。
说明:类图像建筑领域的施工图,如果搭平房,可能不需要,但如果建造蚂蚁 Z 空间大楼,肯定需要详细的施工图。
06.【强制】如果系统中超过 2 个对象之间存在协作关系,并需要表示复杂的处理流程,使用活动图来表示。
说明:活动图是流程图的扩展,增加了能够体现协作关系的对象泳道,支持表示并发等。
07.【强制】系统设计时要准确识别出弱依赖,并针对性地设计降级和应急预案,保证核心系统正常可用。
说明:系统依赖的第三方服务被降级或屏蔽后,依然不会影响主干流程继续进行,仅影响信息展示、或消息通知等非关键功能,那么这些服务称为弱依赖。
正例:当系统弱依赖于多个外部服务时,如果下游服务耗时过长,则会严重影响当前调用者,必须采取相应降级措施,比如,当调用链路中某个下游服务调用的平均响应时间或错误率超过阈值时,系统自动进行降级或熔断操作,屏蔽弱依赖负面影响,保护当前系统主干功能可用。
反例:某个疫情相关的二维码出错:“服务器开了点小差,请稍后重试”,不可用时长持续很久,引起社会高度关注,原因可能为调用的外部依赖服务 RT 过高而导致系统假死,而在显示端没有做降级预案,只能直接抛错给用户。
08.【推荐】系统架构设计时明确以下目标:
确定系统边界。确定系统在技术层面上的做与不做。
确定系统内模块之间的关系。确定模块之间的依赖关系及模块的宏观输入与输出。
确定指导后续设计与演化的原则。使后续的子系统或模块设计在一个既定的框架内和技术方向上继续演化。
确定非功能性需求。非功能性需求是指安全性、可用性、可扩展性等。
09.【推荐】需求分析与系统设计在考虑主干功能的同时,需要充分评估异常流程与业务边界。
10.【推荐】类在设计与实现时要符合单一原则。
说明:单一原则最易理解却是最难实现的一条规则,随着系统演进,很多时候,忘记了类设计的初衷。
11.【推荐】谨慎使用继承的方式来进行扩展,优先使用聚合/组合的方式来实现。
说明:不得已使用继承的话,必须符合里氏代换原则,此原则说父类能够出现的地方子类一定能够出现,比如,“把钱交出来”,钱的子类美元、欧元、人民币等都可以出现。
12.【推荐】系统设计阶段,根据依赖倒置原则,尽量依赖抽象类与接口,有利于扩展与维护。
说明:低层次模块依赖于高层次模块的抽象,方便系统间的解耦。
13.【推荐】系统设计阶段,注意对扩展开放,对修改闭合。
说明:极端情况下,交付的代码是不可修改的,同一业务域内的需求变化,通过模块或类的扩展来实现。
14.【推荐】系统设计阶段,共性业务或公共行为抽取出来公共模块、公共配置、公共类、公共方法等,在系统中不出现重复代码的情况,即 DRY 原则(Don't Repeat Yourself)。
说明:随着代码的重复次数不断增加,维护成本指数级上升。随意复制和粘贴代码,必然会导致代码的重复,在维护代码时,需要修改所有的副本,容易遗漏。必要时抽取共性方法,或者抽象公共类,甚至是组件化。
正例:一个类中有多个 public 方法,都需要进行数行相同的参数校验操作,这个时候请抽取:
private boolean checkParam(DTO dto) {...}
15.【推荐】避免如下误解:敏捷开发=讲故事+编码+发布。
说明:敏捷开发是快速交付迭代可用的系统,省略多余的设计方案,摒弃传统的审批流程,但核心关键点上的必要设计和文档沉淀是需要的。
反例:某团队为了业务快速发展,敏捷成了产品经理催进度的借口,系统中均是勉强能运行但像面条一样的代码,可维护性和可扩展性极差,一年之后,不得不进行大规模重构,得不偿失。
16.【参考】设计文档的作用是明确需求、理顺逻辑、后期维护,次要目的用于指导编码。
说明:避免为了设计而设计,系统设计文档有助于后期的系统维护和重构,所以设计结果需要进行分类归档保存。
17.【参考】可扩展性的本质是找到系统的变化点,并隔离变化点。
说明:世间众多设计模式其实就是一种设计模式即隔离变化点的模式。
正例:极致扩展性的标志,就是需求的新增,不会在原有代码交付物上进行任何形式的修改。
18.【参考】设计的本质就是识别和表达系统难点。
说明:识别和表达完全是两回事,很多人错误地认为识别到系统难点在哪里,表达只是自然而然的事情,但是大家在设计评审中经常出现语焉不详,甚至是词不达意的情况。
准确地表达系统难点需要具备如下能力:表达规则和表达工具的熟练性。抽象思维和总结能力的局限性。基础知识体系的完备性。深入浅出的生动表达力。
19.【参考】代码即文档的观点是错误的,清晰的代码只是文档的某个片断,而不是全部。
说明:代码的深度调用,模块层面上的依赖关系网,业务场景逻辑,非功能性需求等问题要相应的文档来完整地呈现。
20.【参考】在做无障碍产品设计时,需要考虑到:
所有可交互的控件元素必须能被 tab 键聚焦,并且焦点顺序需符合自然操作逻辑。
用于登录校验和请求拦截的验证码均需提供图形验证以外的其它方式。
自定义的控件类型需明确交互方式。
正例:登录场景中,输入框的按钮都需要考虑 tab 键聚焦,符合自然逻辑的操作顺序如下,"输入用户名,输入密码,输入验证码,点击登录",其中验证码实现语音验证方式。如有自定义标签实现的控件设置控件类型可使用 role 属性。
4.11 附:专有名词
01.POJO(Plain Ordinary Java Object)
在本规约中,POJO 专指只有 setter / getter / toString 的简单类,包括DO / DTO / BO / VO 等。
02.DO(Data Object)
阿里巴巴专指数据库表一一对应的 POJO 类。此对象与数据库表结构一一对应,通过 DAO 层向上传输数据源对象。
03.PO(Persistent Object)
也指数据库表一一对应的 POJO 类。此对象与数据库表结构一一对应,通过 DAO 层向上传输数据源对象。
04.DTO(Data Transfer Object )
数据传输对象,Service 或 Manager 向外传输的对象。
05.BO(Business Object)
业务对象,可以由 Service 层输出的封装业务逻辑的对象。
06.Query
数据查询对象,各层接收上层的查询请求。注意超过2个参数的查询封装,禁止使用Map类来传输。
07.VO(View Object)
显示层对象,通常是 Web 向模板渲染引擎层传输的对象。
08.CAS(Compare And Swap)
解决多线程并行情况下使用锁造成性能损耗的一种机制,这是硬件实现的原子操作。
CAS 操作包含三个操作数:内存位置、预期原值和新值。如果内存位置的值与预期原值相匹配,那么处理器会自动将该
位置值更新为新值。否则,处理器不做任何操作。
09.GAV(GroupId、ArtifactId、Version)
Maven 坐标,是用来唯一标识 jar 包。
10.OOP(Object Oriented Programming)
本文泛指类、对象的编程处理方式。
11.AQS(AbstractQueuedSynchronizer)
利用先进先出队列实现的底层同步工具类,它是很多上层同步实现类的基础,
比如:ReentrantLock、CountDownLatch、Semaphore 等,它们通过继承 AQS 实现其模版方法,然后将 AQS
子类作为同步组件的内部类,通常命名为 Sync。
12.ORM(Object Relation Mapping)
对象关系映射,对象领域模型与底层数据之间的转换,本文泛指 iBATIS,mybatis 等框架。
13.NPE(java.lang.NullPointerException)
空指针异常。
14.OOM(Out Of Memory)
源于 java.lang.OutOfMemoryError,当 JVM 没有足够的内存来为对象分配空间并且垃圾回收器也无法回收空间时,
系统出现的严重状况。
15.GMT(Greenwich Mean Time)
指位于英国伦敦郊区的皇家格林尼治天文台的标准时间,因为本初子午线被定义在通过那里的经线。
地球每天的自转是有些不规则的,而且正在缓慢减速,现在的标准时间是协调世界时(UTC),它由原子钟提供。
16.一方库
本工程内部子项目模块依赖的库(jar 包)。
17.二方库
公司内部发布到中央仓库,可供公司内部其它应用依赖的库(jar 包)。
18.三方库
公司之外的开源库(jar 包)。
4.12 附:历史版本
01.华山版,2019.06.19
1.鉴于手册是 Java 社区开发者集体智慧的结晶,移除《阿里巴巴 Java 开发手册》的限定词“阿里巴巴”
2.新增 21 条新规约。比如,switch 的 NPE 问题、浮点数的比较、无泛型限制、锁的使用方式、判断表达式、日期格式等
3.修改描述 112 处。比如,IFNULL 的判断、集合的 toArray、日志处理等
4.完善若干处示例。比如,卫语句示例、enum 示例、finally 的 return 示例等
02.泰山版,2020.04.22
1.发布错误码统一解决方案,详细参考附表 3
2.修改描述 90 处。比如,阻塞等待锁、建表的小数类型等。
3.完善若干处示例。比如,ISNULL 的示例等。
4.新增 34 条新规约。比如,日期时间的闰年、闰月问题,三目运算的自动拆箱,SQL 查询的表别名限定,Collectors 类的 toMap() 方法使用注意等。
03.嵩山版,2020.08.03
1.新增前后端规约 14 条。
2.新增禁止任何歧视性用语的约定。
3.新增涉及敏感操作的情况下日志需要保存六个月的约定。
4.修正 BigDecimal 类中关于 compareTo 和 equals 的等值比较。
5.修正 HashMap 关于 1024 个元素扩容的次数。
6.修正架构分层规范与相关说明。
7.修正泰山版中部分格式错误和描述错误。
04.黄山版,2022.02.03
1.新增 11 条新规约。比如,浮点数的后缀统一为大写;枚举的属性字段必须是私有且不可变;配置文件中的密码需要加密等。
2.新增描述中的正反例 2 条。比如,多个构造方法次序、NoSuchMethodError 处理;新增扩展说明 5 条。比如,父集合元素的增加或删除异常等。
3.修改描述 22 处。比如,魔法值的示例代码、ScheduledThreadPool 问题等。
4.修正嵩山版中部分代码格式错误和描述错误。