diff --git a/develop/_index.md b/develop/_index.md new file mode 100644 index 0000000000000..efc219618905b --- /dev/null +++ b/develop/_index.md @@ -0,0 +1,181 @@ +--- +title: 开发者指南概览 +summary: 介绍 TiDB Cloud 和 TiDB 自托管版的开发者指南概览。 +aliases: ['/zh/tidb/stable/dev-guide-overview/','/zh/tidb/dev/dev-guide-overview/','/zh/tidbcloud/dev-guide-overview/','/zh/tidb/dev/connectors-and-apis/','/zh/appdev/dev/','/zh/tidb/dev/dev-guide-outdated-for-laravel'] +--- + +# 开发者指南概览 + +[TiDB](https://github.com/pingcap/tidb) 是一个开源分布式 SQL 数据库,支持 HTAP (Hybrid Transactional and Analytical Processing) 工作负载。 + +本指南帮助应用开发者快速学习如何连接 TiDB、设计数据库、编写和查询数据,并在 TiDB 上构建可靠、高性能的应用。 + +> **注意:** +> +> 本指南面向应用开发者编写。如果你对 TiDB 的内部原理感兴趣,或希望参与 TiDB 的开发,请阅读 [TiDB 内核开发者指南](https://pingcap.github.io/tidb-dev-guide/) 以获取更多关于 TiDB 的信息。 + +## 按语言和框架分类的指南 + +通过包含示例代码的指南,使用你熟悉的语言构建应用。 + + + + +在边缘环境通过 HTTPS 连接 TiDB(仅适用于 TiDB Cloud)。 + + + + +通过 mysql2 将 Next.js 连接到 TiDB。 + + + + +使用 Prisma ORM 连接 TiDB。 + + + + +使用 TypeORM 连接 TiDB。 + + + + +使用 Sequelize ORM 连接 TiDB。 + + + + +通过 mysql.js 模块将 Node.js 连接到 TiDB。 + + + + +通过 node-mysql2 模块将 Node.js 连接到 TiDB。 + + + + +通过 mysql2 将 AWS Lambda Function 连接到 TiDB。 + + + + + + + +通过 django-tidb 将 Django 应用连接到 TiDB。 + + + + +使用官方 MySQL 包连接 TiDB。 + + + + +使用 PyMySQL 包连接 TiDB。 + + + + +使用 mysqlclient 包连接 TiDB。 + + + + +使用 SQLAlchemy ORM 连接 TiDB。 + + + + +使用 Peewee ORM 连接 TiDB。 + + + + + + + +通过 JDBC(MySQL Connector/J)连接 TiDB。 + + + + +使用 MyBatis ORM 连接 TiDB。 + + + + +使用 Hibernate ORM 连接 TiDB。 + + + + +通过 Spring Data JPA 将基于 Spring 的应用连接到 TiDB。 + + + + + + + +使用 Go 的 MySQL 驱动连接 TiDB。 + + + + +使用 GORM 连接 TiDB。 + + + + + + + +通过 Active Record ORM 将 Ruby on Rails 应用连接到 TiDB。 + + + + +使用 mysql2 驱动连接 TiDB。 + + + + +除了上述指南,PingCAP 还与社区合作,支持 [第三方 MySQL 驱动、ORM 和工具](/develop/dev-guide-third-party-support.md)。 + +## 使用 MySQL 客户端软件 + +由于 TiDB 是 MySQL 兼容数据库,你可以使用许多常用的客户端软件工具连接 TiDB 并管理你的数据库。对于 TiDB Cloud,你还可以使用我们的 [命令行工具](/tidb-cloud/get-started-with-cli.md) 进行连接和管理。 + + + + +使用 MySQL Workbench 连接和管理 TiDB 数据库。 + + + + +在 VS Code 中通过 SQLTools 扩展连接和管理 TiDB 数据库。 + + + + +使用 DBeaver 连接和管理 TiDB 数据库。 + + + + +通过 JetBrains 的 DataGrip 连接和管理 TiDB 数据库。 + + + + +## 其他资源 + +了解更多关于 TiDB 开发的主题。 + +- 参考 [TiDB 数据库开发参考](/develop/dev-guide-schema-design-overview.md) 进行数据与 schema 的设计、交互、优化和故障排查。 +- 参加免费的在线课程 [Introduction to TiDB](https://eng.edu.pingcap.com/catalog/info/id:203/?utm_source=docs-dev-guide)。 +- 探索与 TiDB Cloud 的热门 [服务集成](/tidb-cloud/integrate-tidbcloud-with-airbyte.md)。 \ No newline at end of file diff --git a/latest_translation_commit.json b/latest_translation_commit.json index 6dc63db18ad74..1fa2282dc0a11 100644 --- a/latest_translation_commit.json +++ b/latest_translation_commit.json @@ -1,4 +1,4 @@ { "target": "release-8.5", - "sha": "b7469123c65aa8409bf754e4a7909e16d8ed3082" + "sha": "ea728d3f449433bd0e442339b3a79cda18f453f0" } \ No newline at end of file diff --git a/releases/_index.md b/releases/_index.md new file mode 100644 index 0000000000000..48590a02ba9d0 --- /dev/null +++ b/releases/_index.md @@ -0,0 +1,307 @@ +--- +title: 发布说明 +summary: TiDB 已发布多个版本,包括 8.5.0、8.4.0-DMR、8.3.0-DMR、8.2.0-DMR、8.1.0、8.0.0-DMR、7.6.0-DMR、7.5.1、7.5.0、7.4.0-DMR、7.3.0-DMR、7.2.0-DMR、7.1.4、7.1.3、7.1.2、7.1.1、7.1.0、7.0.0-DMR、6.6.0-DMR、6.5.9、6.5.8、6.5.7、6.5.6、6.5.5、6.5.4、6.5.3、6.5.2、6.5.1、6.5.0、6.4.0-DMR、6.3.0-DMR、6.2.0-DMR、6.1.7、6.1.6、6.1.5、6.1.4、6.1.3、6.1.2、6.1.1、6.1.0、6.0.0-DMR、5.4.3、5.4.2、5.4.1、5.4.0、5.3.4、5.3.3、5.3.2、5.3.1、5.3.0、5.2.4、5.2.3、5.2.2、5.2.1、5.2.0、5.1.5、5.1.4、5.1.3、5.1.2、5.1.1、5.1.0、5.0.6、5.0.5、5.0.4、5.0.3、5.0.2、5.0.1、5.0.0、5.0.0-rc、4.0.16、4.0.15、4.0.14、4.0.13、4.0.12、4.0.11、4.0.10、4.0.9、4.0.8、4.0.7、4.0.6、4.0.5、4.0.4、4.0.3、4.0.2、4.0.1、4.0.0、4.0.0-rc.2、4.0.0-rc.1、4.0.0-rc、4.0.0-beta.2、4.0.0-beta.1、4.0.0-beta、3.1.2、3.1.1、3.1.0、3.1.0-rc、3.1.0-beta.2、3.1.0-beta.1、3.1.0-beta、3.0.20、3.0.19、3.0.18、3.0.17、3.0.16、3.0.15、3.0.14、3.0.13、3.0.12、3.0.11、3.0.10、3.0.9、3.0.8、3.0.7、3.0.6、3.0.5、3.0.4、3.0.3、3.0.2、3.0.1、3.0.0、3.0.0-rc.3、3.0.0-rc.2、3.0.0-rc.1、3.0.0-beta.1、3.0.0-beta、2.1.19、2.1.18、2.1.17、2.1.16、2.1.15、2.1.14、2.1.13、2.1.12、2.1.11、2.1.10、2.1.9、2.1.8、2.1.7、2.1.6、2.1.5、2.1.4、2.1.3、2.1.2、2.1.1、2.1.0、2.1.0-rc.5、2.1.0-rc.4、2.1.0-rc.3、2.1.0-rc.2、2.1.0-rc.1、2.1.0-beta、2.0.11、2.0.10、2.0.9、2.0.8、2.0.7、2.0.6、2.0.5、2.0.4、2.0.3、2.0.2、2.0.1、2.0.0、2.0.0-rc.5、2.0.0-rc.4、2.0.0-rc.3、2.0.0-rc.1、1.1.0-beta、1.1.0-alpha、1.0.8、1.0.7、1.0.6、1.0.5、1.0.4、1.0.3、1.0.2、1.0.1、1.0.0、Pre-GA、rc4、rc3、rc2、rc1。 +aliases: ['/zh/docs/dev/releases/release-notes/','/zh/docs/dev/releases/rn/','/zh/tidb/stable/release-notes/','/zh/tidb/v8.5/release-notes/'] +--- + +# TiDB 发布说明 + + + +本文档列出了所有已发布的 TiDB 版本,按版本号降序排列。 + +如需了解 TiDB 长期支持(LTS)版本的支持周期,请参见 [TiDB 发布支持政策](https://pingcap.com/tidb-release-support-policy/)。 + +## 8.5 + +- [8.5.5](/releases/release-8.5.5.md):2026-01-15 +- [8.5.4](/releases/release-8.5.4.md):2025-11-27 +- [8.5.3](/releases/release-8.5.3.md):2025-08-14 +- [8.5.2](/releases/release-8.5.2.md):2025-06-12 +- [8.5.1](/releases/release-8.5.1.md):2025-01-17 +- [8.5.0](/releases/release-8.5.0.md):2024-12-19 + +## 8.4 + +- [8.4.0-DMR](/releases/release-8.4.0.md):2024-11-11 + +## 8.3 + +- [8.3.0-DMR](/releases/release-8.3.0.md):2024-08-22 + +## 8.2 + +- [8.2.0-DMR](/releases/release-8.2.0.md):2024-07-11 + +## 8.1 + +- [8.1.2](/releases/release-8.1.2.md):2024-12-26 +- [8.1.1](/releases/release-8.1.1.md):2024-08-27 +- [8.1.0](/releases/release-8.1.0.md):2024-05-24 + +## 8.0 + +- [8.0.0-DMR](/releases/release-8.0.0.md):2024-03-29 + +## 7.6 + +- [7.6.0-DMR](/releases/release-7.6.0.md):2024-01-25 + +## 7.5 + +- [7.5.7](/releases/release-7.5.7.md):2025-09-04 +- [7.5.6](/releases/release-7.5.6.md):2025-03-14 +- [7.5.5](/releases/release-7.5.5.md):2024-12-31 +- [7.5.4](/releases/release-7.5.4.md):2024-10-15 +- [7.5.3](/releases/release-7.5.3.md):2024-08-05 +- [7.5.2](/releases/release-7.5.2.md):2024-06-13 +- [7.5.1](/releases/release-7.5.1.md):2024-02-29 +- [7.5.0](/releases/release-7.5.0.md):2023-12-01 + +## 7.4 + +- [7.4.0-DMR](/releases/release-7.4.0.md):2023-10-12 + +## 7.3 + +- [7.3.0-DMR](/releases/release-7.3.0.md):2023-08-14 + +## 7.2 + +- [7.2.0-DMR](/releases/release-7.2.0.md):2023-06-29 + +## 7.1 + +- [7.1.6](/releases/release-7.1.6.md):2024-11-21 +- [7.1.5](/releases/release-7.1.5.md):2024-04-26 +- [7.1.4](/releases/release-7.1.4.md):2024-03-11 +- [7.1.3](/releases/release-7.1.3.md):2023-12-21 +- [7.1.2](/releases/release-7.1.2.md):2023-10-25 +- [7.1.1](/releases/release-7.1.1.md):2023-07-24 +- [7.1.0](/releases/release-7.1.0.md):2023-05-31 + +## 7.0 + +- [7.0.0-DMR](/releases/release-7.0.0.md):2023-03-30 + +## 6.6 + +- [6.6.0-DMR](/releases/release-6.6.0.md):2023-02-20 + +## 6.5 + +- [6.5.12](/releases/release-6.5.12.md):2025-02-27 +- [6.5.11](/releases/release-6.5.11.md):2024-09-20 +- [6.5.10](/releases/release-6.5.10.md):2024-06-20 +- [6.5.9](/releases/release-6.5.9.md):2024-04-12 +- [6.5.8](/releases/release-6.5.8.md):2024-02-02 +- [6.5.7](/releases/release-6.5.7.md):2024-01-08 +- [6.5.6](/releases/release-6.5.6.md):2023-12-07 +- [6.5.5](/releases/release-6.5.5.md):2023-09-21 +- [6.5.4](/releases/release-6.5.4.md):2023-08-28 +- [6.5.3](/releases/release-6.5.3.md):2023-06-14 +- [6.5.2](/releases/release-6.5.2.md):2023-04-21 +- [6.5.1](/releases/release-6.5.1.md):2023-03-10 +- [6.5.0](/releases/release-6.5.0.md):2022-12-29 + +## 6.4 + +- [6.4.0-DMR](/releases/release-6.4.0.md):2022-11-17 + +## 6.3 + +- [6.3.0-DMR](/releases/release-6.3.0.md):2022-09-30 + +## 6.2 + +- [6.2.0-DMR](/releases/release-6.2.0.md):2022-08-23 + +## 6.1 + +- [6.1.7](/releases/release-6.1.7.md):2023-07-12 +- [6.1.6](/releases/release-6.1.6.md):2023-04-12 +- [6.1.5](/releases/release-6.1.5.md):2023-02-28 +- [6.1.4](/releases/release-6.1.4.md):2023-02-08 +- [6.1.3](/releases/release-6.1.3.md):2022-12-05 +- [6.1.2](/releases/release-6.1.2.md):2022-10-24 +- [6.1.1](/releases/release-6.1.1.md):2022-09-01 +- [6.1.0](/releases/release-6.1.0.md):2022-06-13 + +## 6.0 + +- [6.0.0-DMR](/releases/release-6.0.0-dmr.md):2022-04-07 + +## 5.4 + +- [5.4.3](/releases/release-5.4.3.md):2022-10-13 +- [5.4.2](/releases/release-5.4.2.md):2022-07-08 +- [5.4.1](/releases/release-5.4.1.md):2022-05-13 +- [5.4.0](/releases/release-5.4.0.md):2022-02-15 + +## 5.3 + +- [5.3.4](/releases/release-5.3.4.md):2022-11-24 +- [5.3.3](/releases/release-5.3.3.md):2022-09-14 +- [5.3.2](/releases/release-5.3.2.md):2022-06-29 +- [5.3.1](/releases/release-5.3.1.md):2022-03-03 +- [5.3.0](/releases/release-5.3.0.md):2021-11-30 + +## 5.2 + +- [5.2.4](/releases/release-5.2.4.md):2022-04-26 +- [5.2.3](/releases/release-5.2.3.md):2021-12-03 +- [5.2.2](/releases/release-5.2.2.md):2021-10-29 +- [5.2.1](/releases/release-5.2.1.md):2021-09-09 +- [5.2.0](/releases/release-5.2.0.md):2021-08-27 + +## 5.1 + +- [5.1.5](/releases/release-5.1.5.md):2022-12-28 +- [5.1.4](/releases/release-5.1.4.md):2022-02-22 +- [5.1.3](/releases/release-5.1.3.md):2021-12-03 +- [5.1.2](/releases/release-5.1.2.md):2021-09-27 +- [5.1.1](/releases/release-5.1.1.md):2021-07-30 +- [5.1.0](/releases/release-5.1.0.md):2021-06-24 + +## 5.0 + +- [5.0.6](/releases/release-5.0.6.md):2021-12-31 +- [5.0.5](/releases/release-5.0.5.md):2021-12-03 +- [5.0.4](/releases/release-5.0.4.md):2021-09-27 +- [5.0.3](/releases/release-5.0.3.md):2021-07-02 +- [5.0.2](/releases/release-5.0.2.md):2021-06-10 +- [5.0.1](/releases/release-5.0.1.md):2021-04-24 +- [5.0.0](/releases/release-5.0.0.md):2021-04-07 +- [5.0.0-rc](/releases/release-5.0.0-rc.md):2021-01-12 + +## 4.0 + +- [4.0.16](/releases/release-4.0.16.md):2021-12-17 +- [4.0.15](/releases/release-4.0.15.md):2021-09-27 +- [4.0.14](/releases/release-4.0.14.md):2021-07-27 +- [4.0.13](/releases/release-4.0.13.md):2021-05-28 +- [4.0.12](/releases/release-4.0.12.md):2021-04-02 +- [4.0.11](/releases/release-4.0.11.md):2021-02-26 +- [4.0.10](/releases/release-4.0.10.md):2021-01-15 +- [4.0.9](/releases/release-4.0.9.md):2020-12-21 +- [4.0.8](/releases/release-4.0.8.md):2020-10-30 +- [4.0.7](/releases/release-4.0.7.md):2020-09-29 +- [4.0.6](/releases/release-4.0.6.md):2020-09-15 +- [4.0.5](/releases/release-4.0.5.md):2020-08-31 +- [4.0.4](/releases/release-4.0.4.md):2020-07-31 +- [4.0.3](/releases/release-4.0.3.md):2020-07-24 +- [4.0.2](/releases/release-4.0.2.md):2020-07-01 +- [4.0.1](/releases/release-4.0.1.md):2020-06-12 +- [4.0.0](/releases/release-4.0-ga.md):2020-05-28 +- [4.0.0-rc.2](/releases/release-4.0.0-rc.2.md):2020-05-15 +- [4.0.0-rc.1](/releases/release-4.0.0-rc.1.md):2020-04-28 +- [4.0.0-rc](/releases/release-4.0.0-rc.md):2020-04-08 +- [4.0.0-beta.2](/releases/release-4.0.0-beta.2.md):2020-03-18 +- [4.0.0-beta.1](/releases/release-4.0.0-beta.1.md):2020-02-28 +- [4.0.0-beta](/releases/release-4.0.0-beta.md):2020-01-17 + +## 3.1 + +- [3.1.2](/releases/release-3.1.2.md):2020-06-04 +- [3.1.1](/releases/release-3.1.1.md):2020-04-30 +- [3.1.0](/releases/release-3.1.0-ga.md):2020-04-16 +- [3.1.0-rc](/releases/release-3.1.0-rc.md):2020-04-02 +- [3.1.0-beta.2](/releases/release-3.1.0-beta.2.md):2020-03-09 +- [3.1.0-beta.1](/releases/release-3.1.0-beta.1.md):2020-01-10 +- [3.1.0-beta](/releases/release-3.1.0-beta.md):2019-12-20 + +## 3.0 + +- [3.0.20](/releases/release-3.0.20.md):2020-12-25 +- [3.0.19](/releases/release-3.0.19.md):2020-09-25 +- [3.0.18](/releases/release-3.0.18.md):2020-08-21 +- [3.0.17](/releases/release-3.0.17.md):2020-08-03 +- [3.0.16](/releases/release-3.0.16.md):2020-07-03 +- [3.0.15](/releases/release-3.0.15.md):2020-06-05 +- [3.0.14](/releases/release-3.0.14.md):2020-05-09 +- [3.0.13](/releases/release-3.0.13.md):2020-04-22 +- [3.0.12](/releases/release-3.0.12.md):2020-03-16 +- [3.0.11](/releases/release-3.0.11.md):2020-03-04 +- [3.0.10](/releases/release-3.0.10.md):2020-02-20 +- [3.0.9](/releases/release-3.0.9.md):2020-01-14 +- [3.0.8](/releases/release-3.0.8.md):2019-12-31 +- [3.0.7](/releases/release-3.0.7.md):2019-12-04 +- [3.0.6](/releases/release-3.0.6.md):2019-11-28 +- [3.0.5](/releases/release-3.0.5.md):2019-10-25 +- [3.0.4](/releases/release-3.0.4.md):2019-10-08 +- [3.0.3](/releases/release-3.0.3.md):2019-08-29 +- [3.0.2](/releases/release-3.0.2.md):2019-08-07 +- [3.0.1](/releases/release-3.0.1.md):2019-07-16 +- [3.0.0](/releases/release-3.0-ga.md):2019-06-28 +- [3.0.0-rc.3](/releases/release-3.0.0-rc.3.md):2019-06-21 +- [3.0.0-rc.2](/releases/release-3.0.0-rc.2.md):2019-05-28 +- [3.0.0-rc.1](/releases/release-3.0.0-rc.1.md):2019-05-10 +- [3.0.0-beta.1](/releases/release-3.0.0-beta.1.md):2019-03-26 +- [3.0.0-beta](/releases/release-3.0-beta.md):2019-01-19 + +## 2.1 + +- [2.1.19](/releases/release-2.1.19.md):2019-12-27 +- [2.1.18](/releases/release-2.1.18.md):2019-11-04 +- [2.1.17](/releases/release-2.1.17.md):2019-09-11 +- [2.1.16](/releases/release-2.1.16.md):2019-08-15 +- [2.1.15](/releases/release-2.1.15.md):2019-07-18 +- [2.1.14](/releases/release-2.1.14.md):2019-07-04 +- [2.1.13](/releases/release-2.1.13.md):2019-06-21 +- [2.1.12](/releases/release-2.1.12.md):2019-06-13 +- [2.1.11](/releases/release-2.1.11.md):2019-06-03 +- [2.1.10](/releases/release-2.1.10.md):2019-05-22 +- [2.1.9](/releases/release-2.1.9.md):2019-05-06 +- [2.1.8](/releases/release-2.1.8.md):2019-04-12 +- [2.1.7](/releases/release-2.1.7.md):2019-03-28 +- [2.1.6](/releases/release-2.1.6.md):2019-03-15 +- [2.1.5](/releases/release-2.1.5.md):2019-02-28 +- [2.1.4](/releases/release-2.1.4.md):2019-02-15 +- [2.1.3](/releases/release-2.1.3.md):2019-01-28 +- [2.1.2](/releases/release-2.1.2.md):2018-12-22 +- [2.1.1](/releases/release-2.1.1.md):2018-12-12 +- [2.1.0](/releases/release-2.1-ga.md):2018-11-30 +- [2.1.0-rc.5](/releases/release-2.1-rc.5.md):2018-11-12 +- [2.1.0-rc.4](/releases/release-2.1-rc.4.md):2018-10-23 +- [2.1.0-rc.3](/releases/release-2.1-rc.3.md):2018-09-29 +- [2.1.0-rc.2](/releases/release-2.1-rc.2.md):2018-09-14 +- [2.1.0-rc.1](/releases/release-2.1-rc.1.md):2018-08-24 +- [2.1.0-beta](/releases/release-2.1-beta.md):2018-06-29 + +## 2.0 + +- [2.0.11](/releases/release-2.0.11.md):2019-01-03 +- [2.0.10](/releases/release-2.0.10.md):2018-12-18 +- [2.0.9](/releases/release-2.0.9.md):2018-11-19 +- [2.0.8](/releases/release-2.0.8.md):2018-10-16 +- [2.0.7](/releases/release-2.0.7.md):2018-09-07 +- [2.0.6](/releases/release-2.0.6.md):2018-08-06 +- [2.0.5](/releases/release-2.0.5.md):2018-07-06 +- [2.0.4](/releases/release-2.0.4.md):2018-06-15 +- [2.0.3](/releases/release-2.0.3.md):2018-06-01 +- [2.0.2](/releases/release-2.0.2.md):2018-05-21 +- [2.0.1](/releases/release-2.0.1.md):2018-05-16 +- [2.0.0](/releases/release-2.0-ga.md):2018-04-27 +- [2.0.0-rc.5](/releases/release-2.0-rc.5.md):2018-04-17 +- [2.0.0-rc.4](/releases/release-2.0-rc.4.md):2018-03-30 +- [2.0.0-rc.3](/releases/release-2.0-rc.3.md):2018-03-23 +- [2.0.0-rc.1](/releases/release-2.0-rc.1.md):2018-03-09 +- [1.1.0-beta](/releases/release-1.1-beta.md):2018-02-24 +- [1.1.0-alpha](/releases/release-1.1-alpha.md):2018-01-19 + +## 1.0 + +- [1.0.8](/releases/release-1.0.8.md):2018-02-11 +- [1.0.7](/releases/release-1.0.7.md):2018-01-22 +- [1.0.6](/releases/release-1.0.6.md):2018-01-08 +- [1.0.5](/releases/release-1.0.5.md):2017-12-26 +- [1.0.4](/releases/release-1.0.4.md):2017-12-11 +- [1.0.3](/releases/release-1.0.3.md):2017-11-28 +- [1.0.2](/releases/release-1.0.2.md):2017-11-13 +- [1.0.1](/releases/release-1.0.1.md):2017-11-01 +- [1.0.0](/releases/release-1.0-ga.md):2017-10-16 +- [Pre-GA](/releases/release-pre-ga.md):2017-08-30 +- [rc4](/releases/release-rc.4.md):2017-08-04 +- [rc3](/releases/release-rc.3.md):2017-06-16 +- [rc2](/releases/release-rc.2.md):2017-03-01 +- [rc1](/releases/release-rc.1.md):2016-12-23 \ No newline at end of file diff --git a/tidb-cloud/connected-lark-ticket-creation.md b/tidb-cloud/connected-lark-ticket-creation.md index bf7821c4f784c..a2cfdef85c860 100644 --- a/tidb-cloud/connected-lark-ticket-creation.md +++ b/tidb-cloud/connected-lark-ticket-creation.md @@ -1,42 +1,44 @@ --- -title: 通过 Lark 创建工单和订阅工单更新 -summary: 介绍 Lark 工单创建和更新订阅的详细信息。 +title: 通过 Lark 创建工单并订阅工单更新 +summary: 介绍关于 Lark 工单创建与更新订阅的详细信息。 --- -# 通过 Lark 创建工单和订阅工单更新 +# 通过 Lark 创建工单并订阅工单更新 -对于订阅了 **Enterprise** [支持计划](/tidb-cloud/connected-care-detail.md)的客户,TiDB Cloud 在 [Lark](https://www.larksuite.com/) 中提供了一个名为 **PingCAP Support Bot** 的工单机器人,用于管理支持工单系统中的工单创建和更新。 +对于订阅了 **Enterprise** [support plan](/tidb-cloud/connected-care-detail.md) 的客户,TiDB Cloud 在 [Lark](https://www.larksuite.com/) 中提供了一个名为 **PingCAP Support Bot** 的工单机器人。该机器人可以帮助你直接在支持工单系统中创建支持工单并接收更新。 > **注意:** > -> Lark 的工单支持功能需要申请才能使用。如果你有兴趣尝试此功能,请通过 support@pingcap.com 联系 TiDB Cloud 支持团队,或联系你的技术客户经理(TAM)。 +> Lark 的工单支持功能需按需开通。如果你有兴趣试用该功能,请联系 TiDB Cloud 支持团队:support@pingcap.com,或联系你的 Technical Account Manager (TAM)。 ## 创建支持工单 -在 **Customer Support Group** Lark 群组中,在消息中输入 `@PingCAP Support Bot create ticket`。然后,**PingCAP Support Bot** 将回复一个用于创建工单的 Lark 消息卡片。 +1. 在 Lark 的 **PingCAP Support Group** 群组中,@提及 `@PingCAP Support Bot` 并在消息中描述你的问题。随后,机器人会发送一条仅你可见的临时卡片消息。 -![lark-ticket-creation-1](/media/tidb-cloud/connected-lark-ticket-creation-1.png) + ![lark-ticket-creation-1](/media/tidb-cloud/connected-lark-ticket-creation-1.png) -填写必填字段并点击**提交**。提交后,卡片将更新为**工单已提交**,表示你的请求正在处理中。 +2. 在卡片中,在 **Reporter** 字段填写你用于 [TiDB Cloud 控制台](https://tidbcloud.com/) 的邮箱地址,按需填写其他字段,然后点击 **Submit** 创建工单。 -![lark-ticket-creation-2](/media/tidb-cloud/connected-lark-ticket-creation-2.png) + ![lark-ticket-creation-2](/media/tidb-cloud/connected-lark-ticket-creation-2.png) -支持工单创建后,**工单已提交**卡片将更新为**支持工单已创建**卡片,提供工单名称和查看工单的链接。 +工单创建成功后,机器人会在线程中回复工单链接。你可以点击该链接,在 [PingCAP Help Center](https://tidb.support.pingcap.com/servicedesk/customer/portals) 查看工单详情。 ![lark-ticket-creation-3](/media/tidb-cloud/connected-lark-ticket-creation-3.png) +![lark-ticket-creation-4](/media/tidb-cloud/connected-lark-ticket-creation-4.png) + ## 订阅工单更新 -每当 PingCAP 支持工程师在工单上发表评论时,**PingCAP Support Bot** 将向 Lark 群组发送一个**工单新评论**卡片。 +在你[创建支持工单](#创建支持工单)后,可以直接在 Lark 的 **PingCAP Support Group** 群组中接收工单更新。当支持工程师回复你的工单时,机器人会在群组中发布一条更新消息。该消息包含工单标题、工单链接以及最新评论。 -![connected-lark-ticket-creation-4](/media/tidb-cloud/connected-lark-ticket-creation-4.png) +![lark-ticket-creation-5](/media/tidb-cloud/connected-lark-ticket-creation-5.png) ## 常见问题 - 如何查看我的工单状态? - 使用创建工单时使用的电子邮件地址登录 [PingCAP 帮助中心](https://tidb.support.pingcap.com/servicedesk/customer/user/requests)。你可以查看当前账户的所有历史工单及其状态。 + 使用创建工单时填写的邮箱地址登录 [PingCAP Help Center](https://tidb.support.pingcap.com/servicedesk/customer/user/requests)。你可以查看当前账户下所有历史工单及其状态。 ## 联系支持 -如需帮助或有任何问题,请通过 support@pingcap.com 联系我们的支持团队。 +如需帮助或有任何疑问,请联系支持团队:support@pingcap.com。 \ No newline at end of file diff --git a/tidb-cloud/connected-lark-ticket-interaction.md b/tidb-cloud/connected-lark-ticket-interaction.md index f2a46824c3b93..4cd71e8fb9829 100644 --- a/tidb-cloud/connected-lark-ticket-interaction.md +++ b/tidb-cloud/connected-lark-ticket-interaction.md @@ -1,32 +1,36 @@ --- -title: 通过飞书与支持工单互动 -summary: 介绍支持工单的飞书互动详细信息 +title: 通过 Lark 交互支持工单 +summary: 介绍通过 Lark 交互支持工单的详细信息 --- -# 通过飞书与支持工单互动 +# 通过 Lark 交互支持工单 -对于订阅了**高级**[支持计划](/tidb-cloud/connected-care-detail.md)的客户,TiDB Cloud 在[飞书](https://www.larksuite.com/)中提供了一个名为 **PingCAP Support Bot** 的工单机器人,以支持更全面的支持工单互动和管理。 +对于订阅了 **Premium** [support plan](/tidb-cloud/connected-care-detail.md) 的客户,TiDB Cloud 在 [Lark](https://www.larksuite.com/) 中提供了名为 **PingCAP Support Bot** 的工单机器人,以支持更全面的支持工单交互与管理。 > **注意:** > -> 飞书的工单支持功能需要申请才能使用。如果你对尝试此功能感兴趣,请通过 support@pingcap.com 联系 TiDB Cloud 支持团队,或联系你的技术客户经理(TAM)。 +> Lark 的工单支持功能需按需开通。如果你有兴趣试用该功能,请通过 support@pingcap.com 联系 TiDB Cloud 支持团队,或联系你的 Technical Account Manager (TAM)。 -## 与支持工单互动 +## 交互支持工单 -如果启用了支持工单互动功能,**PingCAP Support Bot** 会将**支持工单已创建**消息卡片转换为一个线程来管理工单互动。 +在 Lark 的 **PingCAP Support Group** 中 [创建支持工单](/tidb-cloud/connected-lark-ticket-creation.md#create-a-support-ticket) 后,机器人会在消息 thread 中回复工单链接。 ![lark-ticket-interaction-1](/media/tidb-cloud/connected-lark-ticket-interaction-1.png) -当 PingCAP 支持工程师在工单上发表评论时,评论会自动同步到线程中。 +如果你订阅了 **Premium** [support plan](/tidb-cloud/connected-care-detail.md),可以实现 Lark 与工单系统之间的双向信息同步。 -当任何人在线程中发表评论时,评论会同步回相应的支持工单。 +当支持工程师回复你的工单时,回复内容会同步到 Lark 的消息 thread。你可以在 thread 中直接查看回复并进行回复,无需访问支持 portal。你的回复也会同步到工单系统。 + +通过该能力,如果你订阅了 **Premium** support plan,可以在 Lark 内快速创建、回复和管理工单,无需切换平台。 + +![lark-ticket-interaction-2](/media/tidb-cloud/connected-lark-ticket-interaction-2.png) ## 常见问题 - 如何查看我的工单状态? - 使用创建工单时使用的电子邮件地址登录 [PingCAP 帮助中心](https://tidb.support.pingcap.com/servicedesk/customer/user/requests)。你可以查看当前账户的所有历史工单及其状态。 + 使用创建工单时的邮箱登录 [PingCAP Help Center](https://tidb.support.pingcap.com/servicedesk/customer/user/requests)。你可以查看当前 account 下所有历史工单及其状态。 ## 联系支持 -如需帮助或有任何问题,请通过 support@pingcap.com 联系我们的支持团队。 +如需帮助或有任何疑问,请通过 support@pingcap.com 联系我们的支持团队。 \ No newline at end of file diff --git a/tidb-cloud/features.md b/tidb-cloud/features.md index e4cab911dbed3..78c31fb8d16fa 100644 --- a/tidb-cloud/features.md +++ b/tidb-cloud/features.md @@ -1,11 +1,11 @@ --- title: 功能特性 -summary: 了解不同 TiDB Cloud 方案的功能支持状态。 +summary: 了解不同 TiDB Cloud 套餐的功能支持状态。 --- # 功能特性 -本文档列出了不同 TiDB Cloud 方案(包括 TiDB Cloud Starter、Essential 和 Dedicated)的功能支持状态。 +本文档列出了不同 TiDB Cloud 套餐(包括 TiDB Cloud Starter、Essential 和 Dedicated)的功能支持状态。 > **提示:** > @@ -126,7 +126,7 @@ summary: 了解不同 TiDB Cloud 方案的功能支持状态。 ❌ - 通过 changefeed 将变更数据同步到 Kafka 或其他 MySQL 兼容数据库 + 通过变更数据流(changefeed)将变更数据同步到 Kafka 或其他 MySQL 兼容数据库 ❌ ✅
(公测) ✅ @@ -172,7 +172,7 @@ summary: 了解不同 TiDB Cloud 方案的功能支持状态。 告警 ❌ - 🚧 + ✅ ✅ @@ -227,13 +227,13 @@ summary: 了解不同 TiDB Cloud 方案的功能支持状态。 网络连接 - 私有端口 + 私有端点 ✅ ✅ ✅ - 公网端口 + 公网端点 ✅ ✅ ✅ diff --git a/tidb-cloud/releases/release-notes-2023.md b/tidb-cloud/releases/release-notes-2023.md index 6522f2e74294f..a5f3cd0444c82 100644 --- a/tidb-cloud/releases/release-notes-2023.md +++ b/tidb-cloud/releases/release-notes-2023.md @@ -11,7 +11,7 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 支持恢复失败的 changefeed,无需重新创建,节省你的操作成本。 +- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 支持恢复失败的 changefeed,节省了你重新创建 changefeed 的操作成本。 详情参见 [Changefeed 状态](/tidb-cloud/changefeed-overview.md#changefeed-states)。 @@ -19,7 +19,7 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - 优化 [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 的连接体验。 - 优化 **Connect** 对话框界面,为 TiDB Cloud Serverless 用户带来更流畅高效的连接体验。此外,TiDB Cloud Serverless 新增了更多 client 类型,并允许你选择所需分支进行连接。 + 优化 **Connect** 对话框界面,为 TiDB Cloud Serverless 用户带来更流畅高效的连接体验。此外,TiDB Cloud Serverless 新增了更多 client type,并允许你选择所需分支进行连接。 详情参见 [连接到 TiDB Cloud Serverless](/tidb-cloud/connect-via-standard-connection-serverless.md)。 @@ -29,25 +29,25 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 支持从备份中恢复 SQL 绑定。 - 现在,TiDB Cloud Dedicated 在从备份恢复时默认恢复用户 account 和 SQL 绑定。该增强适用于 v6.2.0 及 later version 的集群,简化了数据恢复流程。SQL 绑定的恢复确保了 query 相关配置和优化的顺利回归,为你提供更全面高效的恢复体验。 + 现在,TiDB Cloud Dedicated 在从备份恢复时默认恢复 user account 和 SQL 绑定。该增强适用于 v6.2.0 及 later version 的集群,简化了数据恢复流程。SQL 绑定的恢复确保了 query 相关配置和优化的顺利回归,为你提供更全面高效的恢复体验。 详情参见 [备份与恢复 TiDB Cloud Dedicated 数据](/tidb-cloud/backup-and-restore.md)。 **控制台变更** -- [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 支持监控 SQL statement 的 RU 消耗。 +- [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 支持监控 SQL statement 的 RU 成本。 - 现在,TiDB Cloud Serverless 提供每条 SQL statement 的 [Request Units (RUs)](/tidb-cloud/tidb-cloud-glossary.md#request-unit-ru) 详细信息。你可以查看每条 SQL statement 的 **Total RU** 和 **Mean RU** 消耗。该功能有助于你识别和分析 RU 成本,为运维降本提供可能性。 + TiDB Cloud Serverless 现在可以详细展示每条 SQL statement 的 [Request Units (RUs)](/tidb-cloud/tidb-cloud-glossary.md#request-unit-ru)。你可以查看每条 SQL statement 的 **Total RU** 和 **Mean RU** 成本。该功能有助于你识别和分析 RU 成本,为运维提供潜在的成本优化空间。 - 查看 SQL statement RU 详情,请前往 [你的 TiDB Cloud Serverless cluster](https://tidbcloud.com/project/clusters) 的 **Diagnosis** 页面,并点击 **SQL Statement** 标签页。 + 查看 SQL statement RU 详情,请前往 [你的 TiDB Cloud Serverless 集群](https://tidbcloud.com/project/clusters) 的 **Diagnosis** 页面,并点击 **SQL Statement** 标签页。 ## 2023 年 11 月 21 日 **通用变更** -- [数据迁移](/tidb-cloud/migrate-from-mysql-using-data-migration.md) 支持 Google Cloud 上 TiDB cluster 的高速物理模式。 +- [数据迁移](/tidb-cloud/migrate-from-mysql-using-data-migration.md) 支持 Google Cloud 上 TiDB 集群的高速物理模式。 - 现在,你可以在 AWS 和 Google Cloud 上的 TiDB cluster 使用物理模式。物理模式的迁移速度可达 110 MiB/s,是逻辑模式的 2.4 倍。该性能提升适用于大数据集快速迁移到 TiDB Cloud 的 scenario。 + 现在你可以在 AWS 和 Google Cloud 上的 TiDB 集群使用物理模式。物理模式的迁移速度可达 110 MiB/s,是 logic 模式的 2.4 倍。该性能提升适用于大数据集快速迁移到 TiDB Cloud 的 scenario。 详情参见 [迁移现有数据和增量数据](/tidb-cloud/migrate-from-mysql-using-data-migration.md#migrate-existing-data-and-incremental-data)。 @@ -55,13 +55,13 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -- 从 TiDB Cloud Dedicated cluster 恢复数据时,默认行为已由不恢复用户 account 改为恢复所有用户 account。 +- 从 TiDB Cloud Dedicated 集群恢复数据时,默认行为已由不恢复 user account 改为恢复所有 user account。 详情参见 [备份与恢复 TiDB Cloud Dedicated 数据](/tidb-cloud/backup-and-restore.md)。 - 引入 changefeed 的事件过滤器。 - 该增强使你可以直接在 [TiDB Cloud 控制台](https://tidbcloud.com/) 便捷管理 changefeed 的事件过滤器,简化了排除特定事件的流程,并为下游数据同步提供更好的控制。 + 该增强使你可以直接在 [TiDB Cloud 控制台](https://tidbcloud.com/)中便捷管理 changefeed 的事件过滤器,简化了排除特定事件的流程,并为下游数据同步提供更好的控制。 详情参见 [Changefeed](/tidb-cloud/changefeed-overview.md#edit-a-changefeed)。 @@ -82,9 +82,9 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -- 支持在 TiDB Cloud 控制台直接升级到 Enterprise support plan,无需联系销售。 +- 支持在 TiDB Cloud 控制台直接升级到 Enterprise 支持计划,无需联系销售。 - 详情参见 [TiDB Cloud Support](/tidb-cloud/tidb-cloud-support.md)。 + 详情参见 [TiDB Cloud 支持](/tidb-cloud/tidb-cloud-support.md)。 ## 2023 年 10 月 25 日 @@ -92,13 +92,13 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 支持 Google Cloud 上的双区域备份(beta)。 - 托管于 Google Cloud 的 TiDB Cloud Dedicated cluster 可无缝对接 Google Cloud Storage。类似于 Google Cloud Storage 的 [Dual-regions](https://cloud.google.com/storage/docs/locations#location-dr) 功能,TiDB Cloud Dedicated 的双区域所选 region 必须属于同一 multi-region。例如,东京和大阪同属 multi-region `ASIA`,因此可共同用于双区域存储。 + 部署在 Google Cloud 上的 TiDB Cloud Dedicated 集群可无缝对接 Google Cloud Storage。与 Google Cloud Storage 的 [Dual-regions](https://cloud.google.com/storage/docs/locations#location-dr) 功能类似,TiDB Cloud Dedicated 的双区域所选 region 必须属于同一 multi-region。例如,东京和大阪同属 multi-region `ASIA`,因此可共同用于双区域存储。 - 详情参见 [备份与恢复 TiDB Cloud Dedicated 数据](/tidb-cloud/backup-and-restore.md#turn-on-dual-region-backup)。 + 详情参见 [开启双区域备份](/tidb-cloud/backup-and-restore.md#turn-on-dual-region-backup)。 -- [将数据变更日志流式写入 Apache Kafka](/tidb-cloud/changefeed-sink-to-apache-kafka.md) 功能现已正式 GA。 +- [将数据变更日志流式同步到 Apache Kafka](/tidb-cloud/changefeed-sink-to-apache-kafka.md) 功能现已正式 GA。 - 经过 10 个月的 beta 试用,该功能现已正式可用。将 TiDB Cloud 的数据变更日志流式写入 Apache Kafka 是数据集成 scenario 的常见需求。你可以通过 Kafka sink 集成其他数据处理系统(如 Snowflake)或支持业务消费。 + 经过 10 个月的 beta 试用后,TiDB Cloud 到 Apache Kafka 的数据变更日志流式同步功能正式可用。将 TiDB 数据流式同步到消息队列是数据集成常见需求。你可以通过 Kafka sink 集成其他数据处理系统(如 Snowflake)或支持业务消费。 详情参见 [Changefeed 概览](/tidb-cloud/changefeed-overview.md)。 @@ -106,15 +106,15 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -- 支持 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 在 AWS 上的 [双区域备份(beta)](/tidb-cloud/backup-and-restore.md#turn-on-dual-region-backup)。 +- 支持 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群在 AWS 上的 [双区域备份(beta)](/tidb-cloud/backup-and-restore.md#turn-on-dual-region-backup)。 - 你现在可以在云厂商内跨地理 region 复制备份。该功能为数据提供额外的保护层和容灾能力。 + 你现在可以在云服务商的不同地理 region 之间复制备份。该功能为数据提供了额外的保护层和容灾能力。 详情参见 [备份与恢复 TiDB Cloud Dedicated 数据](/tidb-cloud/backup-and-restore.md)。 - 数据迁移现已支持物理模式和逻辑模式迁移现有数据。 - 在物理模式下,迁移速度可达 110 MiB/s。相比逻辑模式的 45 MiB/s,迁移 performance 显著提升。 + 在物理模式下,迁移速度可达 110 MiB/s。相比逻辑模式的 45 MiB/s,迁移性能大幅提升。 详情参见 [迁移现有数据和增量数据](/tidb-cloud/migrate-from-mysql-using-data-migration.md#migrate-existing-data-and-incremental-data)。 @@ -124,33 +124,33 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - 支持在 [Vercel Preview Deployments](https://vercel.com/docs/deployments/preview-deployments) 中使用 TiDB Cloud Serverless 分支,并集成 TiDB Cloud Vercel。 - 详情参见 [使用 TiDB Cloud Serverless 分支连接](/tidb-cloud/integrate-tidbcloud-with-vercel.md#connect-with-branching)。 + 详情参见 [通过分支连接 TiDB Cloud Serverless](/tidb-cloud/integrate-tidbcloud-with-vercel.md#connect-with-branching)。 ## 2023 年 9 月 28 日 **API 变更** -- 新增 TiDB Cloud Billing API endpoint,可获取指定 organization 某月账单。 +- 新增 TiDB Cloud Billing API 端点,用于获取指定组织某月账单。 - 该 Billing API endpoint 在 TiDB Cloud API v1beta1 版本中发布。详情参见 [API 文档 (v1beta1)](https://docs.pingcap.com/tidbcloud/api/v1beta1#tag/Billing)。 + 该 Billing API 端点已在 TiDB Cloud API v1beta1(最新 API 版本)中发布。详情参见 [API 文档 (v1beta1)](https://docs.pingcap.com/tidbcloud/api/v1beta1/billing)。 ## 2023 年 9 月 19 日 **通用变更** -- 从 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 移除 2 vCPU 的 TiDB 和 TiKV 节点。 +- 从 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群中移除 2 vCPU 的 TiDB 和 TiKV 节点。 - **Create Cluster** 和 **Modify Cluster** 页面不再提供 2 vCPU 选项。 + 2 vCPU 选项已不再出现在 **Create Cluster** 或 **Modify Cluster** 页面。 - 发布 [TiDB Cloud serverless driver (beta)](/develop/serverless-driver.md) for JavaScript。 - TiDB Cloud serverless driver for JavaScript 支持通过 HTTPS 连接到你的 [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) cluster。该 driver 特别适用于 TCP 连接受限的边缘环境,如 [Vercel Edge Function](https://vercel.com/docs/functions/edge-functions) 和 [Cloudflare Workers](https://workers.cloudflare.com/)。 + TiDB Cloud serverless driver for JavaScript 允许你通过 HTTPS 连接 [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 集群。该 driver 尤其适用于 TCP 连接受限的边缘环境,如 [Vercel Edge Function](https://vercel.com/docs/functions/edge-functions) 和 [Cloudflare Workers](https://workers.cloudflare.com/)。 详情参见 [TiDB Cloud serverless driver (beta)](/develop/serverless-driver.md)。 **控制台变更** -- 对于 [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) cluster,你可以在 **Usage This Month** 面板或设置消费上限时获取费用预估。 +- 对于 [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 集群,你可以在 **Usage This Month** 面板或设置消费上限时获取费用预估。 ## 2023 年 9 月 5 日 @@ -158,34 +158,34 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - [Data Service (beta)](https://tidbcloud.com/project/data-service) 支持为每个 API key 自定义限流,以满足不同 scenario 下的限流需求。 - 你可以在 [创建](/tidb-cloud/data-service-api-key.md#create-an-api-key) 或 [edit](/tidb-cloud/data-service-api-key.md#edit-an-api-key) API key 时调整限流。 + 你可以在 [创建](/tidb-cloud/data-service-api-key.md#create-an-api-key) 或 [编辑](/tidb-cloud/data-service-api-key.md#edit-an-api-key) API key 时调整限流。 详情参见 [限流](/tidb-cloud/data-service-api-key.md#rate-limiting)。 -- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 新增支持 AWS 区域:圣保罗 (sa-east-1)。 +- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群支持新的 AWS region:圣保罗 (sa-east-1)。 -- 每个 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的 IP 访问列表支持最多添加 100 个 IP 地址。 +- 每个 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的 IP 访问列表支持最多添加 100 个 IP 地址。 详情参见 [配置 IP 访问列表](/tidb-cloud/configure-ip-access-list.md)。 **控制台变更** -- 为 [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) cluster 引入 **Events** 页面,记录 cluster 的主要变更。 +- 为 [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 集群引入 **Events** 页面,记录集群的主要变更。 你可以在该页面查看最近 7 天的事件历史,并追踪触发时间、操作用户等重要信息。 - 详情参见 [TiDB Cloud cluster 事件](/tidb-cloud/tidb-cloud-events.md)。 + 详情参见 [TiDB Cloud 集群事件](/tidb-cloud/tidb-cloud-events.md)。 **API 变更** -- 发布多组 TiDB Cloud API endpoint,用于管理 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的 [AWS PrivateLink](https://aws.amazon.com/privatelink/?privatelink-blogs.sort-by=item.additionalFields.createdDate&privatelink-blogs.sort-order=desc) 或 [Google Cloud Private Service Connect](https://cloud.google.com/vpc/docs/private-service-connect): +- 发布多组 TiDB Cloud API 端点,用于管理 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的 [AWS PrivateLink](https://aws.amazon.com/privatelink/?privatelink-blogs.sort-by=item.additionalFields.createdDate&privatelink-blogs.sort-order=desc) 或 [Google Cloud Private Service Connect](https://cloud.google.com/vpc/docs/private-service-connect): - - 为 cluster 创建私有 endpoint service - - 获取 cluster 的私有 endpoint service 信息 - - 为 cluster 创建私有 endpoint - - 列出 cluster 的所有私有 endpoint + - 为集群创建私有 endpoint service + - 获取集群的私有 endpoint service 信息 + - 为集群创建私有 endpoint + - 列出集群的所有私有 endpoint - 列出项目下所有私有 endpoint - - 删除 cluster 的私有 endpoint + - 删除集群的私有 endpoint 详情参见 [API 文档](https://docs.pingcap.com/tidbcloud/api/v1beta#tag/Cluster)。 @@ -193,23 +193,23 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 支持 Google Cloud [Private Service Connect](https://cloud.google.com/vpc/docs/private-service-connect)。 +- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群支持 Google Cloud [Private Service Connect](https://cloud.google.com/vpc/docs/private-service-connect)。 - 你现在可以为托管于 Google Cloud 的 TiDB Cloud Dedicated cluster 创建私有 endpoint 并建立安全连接。 + 你现在可以创建私有 endpoint,并与部署在 Google Cloud 上的 TiDB Cloud Dedicated 集群建立安全连接。 主要优势: - 操作直观:只需几步即可创建私有 endpoint。 - 安全增强:建立安全连接,保护你的数据。 - - 性能提升:提供低延时、高带宽连接。 + - 性能提升:提供低延时、高带宽的连接。 详情参见 [通过 Google Cloud 私有 endpoint 连接](/tidb-cloud/set-up-private-endpoint-connections-on-google-cloud.md)。 -- 支持通过 changefeed 将 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的数据流式写入 [Google Cloud Storage (GCS)](https://cloud.google.com/storage)。 +- 支持通过 changefeed 将数据从 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群流式同步到 [Google Cloud Storage (GCS)](https://cloud.google.com/storage)。 - 你可以使用自己的 GCS bucket 并精确配置权限,将数据从 TiDB Cloud 流式同步到 GCS。数据复制到 GCS 后,你可按需分析数据变更。 + 你可以使用自己的 GCS bucket 并精确配置权限,将 TiDB Cloud 数据流式同步到 GCS。数据复制到 GCS 后,你可以按需分析数据变更。 - 详情参见 [Sink 到云存储](/tidb-cloud/changefeed-sink-to-cloud-storage.md)。 + 详情参见 [同步到云存储](/tidb-cloud/changefeed-sink-to-cloud-storage.md)。 ## 2023 年 8 月 15 日 @@ -217,18 +217,18 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - [Data Service (beta)](https://tidbcloud.com/project/data-service) 支持 `GET` 请求的分页,提升开发体验。 - 对于 `GET` 请求,你可以在 **Advance Properties** 启用 **Pagination**,并在调用 endpoint 时通过 query parameter 指定 `page` 和 `page_size`。例如,获取第 2 页、每页 10 条数据,可使用如下命令: + 对于 `GET` 请求,你可以在 **Advance Properties** 启用 **Pagination**,并在调用 endpoint 时通过 query parameter 指定 `page` 和 `page_size`。例如,获取第 2 页、每页 10 条数据,可用如下命令: ```bash curl --digest --user ':' \ --request GET 'https://.data.tidbcloud.com/api/v1beta/app//endpoint/?page=2&page_size=10' ``` - 注意:该功能仅适用于最后一个 query 为 `SELECT` 语句的 `GET` 请求。 + 注意:该功能仅适用于最后一个 query 为 `SELECT` statement 的 `GET` 请求。 详情参见 [调用 endpoint](/tidb-cloud/data-service-manage-endpoint.md#call-an-endpoint)。 -- [Data Service (beta)](https://tidbcloud.com/project/data-service) 支持为 `GET` 请求的 endpoint 配置响应 cache 的 TTL。 +- [Data Service (beta)](https://tidbcloud.com/project/data-service) 支持为 `GET` 请求的 endpoint 响应设置指定 TTL 的 cache。 该功能可降低数据库负载,优化 endpoint 延时。 @@ -236,18 +236,18 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 详情参见 [高级属性](/tidb-cloud/data-service-manage-endpoint.md#advanced-properties)。 -- 对 2023 年 8 月 15 日后在 AWS 上创建的 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster,禁用负载均衡改进,包括: +- 对 2023 年 8 月 15 日后在 AWS 上新建的 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群,禁用负载均衡改进,包括: - - 扩容 AWS 上的 TiDB 节点时,禁用自动迁移现有连接到新 TiDB 节点。 - - 缩容 AWS 上的 TiDB 节点时,禁用自动迁移现有连接到可用 TiDB 节点。 + - 禁用 TiDB 节点扩容时自动迁移现有连接到新 TiDB 节点。 + - 禁用 TiDB 节点缩容时自动迁移现有连接到可用 TiDB 节点。 - 此变更避免了 hybrid deployment 的资源争用,不影响已启用该改进的现有 cluster。如需为新 cluster 启用负载均衡改进,请联系 [TiDB Cloud Support](/tidb-cloud/tidb-cloud-support.md)。 + 此变更避免了 hybrid deployment 的资源争用,不影响已启用该改进的现有集群。如需为新集群启用负载均衡改进,请联系 [TiDB Cloud 支持](/tidb-cloud/tidb-cloud-support.md)。 ## 2023 年 8 月 8 日 **通用变更** -- [Data Service (beta)](https://tidbcloud.com/project/data-service) 现支持 Basic Authentication。 +- [Data Service (beta)](https://tidbcloud.com/project/data-service) 现已支持 Basic Authentication。 你可以在请求中将 public key 作为用户名、private key 作为密码,使用 ['Basic' HTTP Authentication](https://datatracker.ietf.org/doc/html/rfc7617)。与 Digest Authentication 相比,Basic Authentication 更简单,便于调用 Data Service endpoint。 @@ -261,42 +261,42 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 TiDB Cloud Data Service 为每个 Data App 自动生成 OpenAPI 文档。你可以在文档中查看 endpoint、parameter、响应,并直接试用 endpoint。 - 你还可以下载 Data App 及其已部署 endpoint 的 OpenAPI Specification(OAS),格式为 YAML 或 JSON。OAS 提供标准化 API 文档、简化集成和便捷代码生成,加快开发并提升协作效率。 + 你还可以下载 Data App 及其已部署 endpoint 的 OpenAPI Specification (OAS),格式为 YAML 或 JSON。OAS 提供标准化 API 文档、简化集成和便捷代码生成,加速开发、提升协作。 详情参见 [使用 OpenAPI 规范](/tidb-cloud/data-service-manage-data-app.md#use-the-openapi-specification) 及 [结合 Next.js 使用 OpenAPI 规范](/tidb-cloud/data-service-oas-with-nextjs.md)。 - 支持在 [Postman](https://www.postman.com/) 中运行 Data App。 - Postman 集成支持将 Data App 的 endpoint 作为集合导入你的工作区,便于协作和无缝 API 测试,支持 Postman Web 和桌面应用。 + Postman 集成让你可将 Data App 的 endpoint 作为集合导入到工作区,便于协作和无缝 API 测试,支持 Postman web 和桌面应用。 详情参见 [在 Postman 中运行 Data App](/tidb-cloud/data-service-postman-integration.md)。 -- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 新增 **Pausing** 状态,实现低成本暂停,暂停期间不计费。 +- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群新增 **Pausing** 状态,实现低成本暂停,暂停期间不计费。 - 当你点击 **Pause**,cluster 首先进入 **Pausing** 状态,暂停完成后状态变为 **Paused**。 + 当你点击 **Pause**,集群会先进入 **Pausing** 状态,暂停完成后状态变为 **Paused**。 - 只有在状态变为 **Paused** 后,cluster 才能恢复,解决了因频繁点击 **Pause** 和 **Resume** 导致的异常恢复问题。 + 只有状态变为 **Paused** 后,集群才能恢复,解决了因频繁点击 **Pause** 和 **Resume** 导致的异常恢复问题。 - 详情参见 [暂停或恢复 TiDB Cloud Dedicated cluster](/tidb-cloud/pause-or-resume-tidb-cluster.md)。 + 详情参见 [暂停或恢复 TiDB Cloud Dedicated 集群](/tidb-cloud/pause-or-resume-tidb-cluster.md)。 ## 2023 年 7 月 26 日 **通用变更** -- 在 TiDB Cloud [Data Service](https://tidbcloud.com/project/data-service) 引入自动 endpoint 生成功能。 +- TiDB Cloud [Data Service](https://tidbcloud.com/project/data-service) 推出自动生成 endpoint 的强大功能。 - 开发者现在只需极少点击和配置即可快速创建 HTTP endpoint。无需重复编写样板代码,简化并加速 endpoint 创建,减少潜在错误。 + 开发者现在只需极少点击和配置即可轻松创建 HTTP endpoint。无需重复样板代码,简化并加速 endpoint 创建,减少潜在错误。 详情参见 [自动生成 endpoint](/tidb-cloud/data-service-manage-endpoint.md#generate-an-endpoint-automatically)。 -- TiDB Cloud [Data Service](https://tidbcloud.com/project/data-service) 支持 endpoint 的 `PUT` 和 `DELETE` 请求方法。 +- TiDB Cloud [Data Service](https://tidbcloud.com/project/data-service) 的 endpoint 支持 `PUT` 和 `DELETE` 请求方法。 - - 使用 `PUT` 方法更新或修改数据,类似 `UPDATE` 语句。 - - 使用 `DELETE` 方法删除数据,类似 `DELETE` 语句。 + - 使用 `PUT` 方法更新或修改数据,类似 `UPDATE` statement。 + - 使用 `DELETE` 方法删除数据,类似 `DELETE` statement。 详情参见 [配置属性](/tidb-cloud/data-service-manage-endpoint.md#configure-properties)。 -- TiDB Cloud [Data Service](https://tidbcloud.com/project/data-service) 支持 `POST`、`PUT`、`DELETE` 请求方法的 **Batch Operation**。 +- TiDB Cloud [Data Service](https://tidbcloud.com/project/data-service) 的 endpoint 支持 `POST`、`PUT`、`DELETE` 方法的 **Batch Operation**。 启用 **Batch Operation** 后,你可以在单次请求中对多行数据进行操作。例如,使用单个 `POST` 请求插入多行数据。 @@ -306,16 +306,16 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -- 新建 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的默认 TiDB 版本由 [v6.5.3](https://docs.pingcap.com/tidb/stable/release-6.5.3) 升级为 [v7.1.1](https://docs.pingcap.com/tidb/stable/release-7.1.1)。 +- 新建 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的默认 TiDB 版本由 [v6.5.3](https://docs.pingcap.com/tidb/stable/release-6.5.3) 升级为 [v7.1.1](https://docs.pingcap.com/tidb/stable/release-7.1.1)。 **控制台变更** -- 优化 TiDB Cloud 用户访问 PingCAP Support 的入口,提升支持体验。改进包括: +- 通过优化支持入口,简化 TiDB Cloud 用户访问 PingCAP 支持的流程。改进包括: - 在左下角 处新增 **Support** 入口。 - - 优化 [TiDB Cloud 控制台](https://tidbcloud.com/) 右下角 **?** 图标菜单,使其更直观。 + - 重构 [TiDB Cloud 控制台](https://tidbcloud.com/) 右下角 **?** 图标菜单,使其更直观。 - 详情参见 [TiDB Cloud Support](/tidb-cloud/tidb-cloud-support.md)。 + 详情参见 [TiDB Cloud 支持](/tidb-cloud/tidb-cloud-support.md)。 ## 2023 年 7 月 18 日 @@ -325,24 +325,24 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - 组织角色包括:`Organization Owner`、`Organization Billing Admin`、`Organization Console Audit Admin`、`Organization Member`。 - 项目角色包括:`Project Owner`、`Project Data Access Read-Write`、`Project Data Access Read-Only`。 - - 管理项目内 cluster(如创建、修改、删除 cluster)需具备 `Organization Owner` 或 `Project Owner` 角色。 + - 管理项目中的集群(如创建、修改、删除集群)需具备 `Organization Owner` 或 `Project Owner` 角色。 各角色权限详情参见 [用户角色](/tidb-cloud/manage-user-access.md#user-roles)。 -- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster(托管于 AWS)支持 Customer-Managed Encryption Key (CMEK)(beta)。 +- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群(AWS 上)支持客户自管加密密钥(CMEK)(beta)。 - 你可以基于 AWS KMS 创建 CMEK,对 EBS 和 S3 中的数据进行加密,且可直接在 TiDB Cloud 控制台操作。该功能确保数据由客户自主管理密钥,提升安全性。 + 你可以基于 AWS KMS 创建 CMEK,对存储在 EBS 和 S3 的数据进行加密,操作均可在 TiDB Cloud 控制台完成,确保数据由客户自管密钥加密,提升安全性。 - 注意:该功能有一定限制,仅支持申请开通。如需申请,请联系 [TiDB Cloud Support](/tidb-cloud/tidb-cloud-support.md)。 + 注意:该功能有一定限制,仅支持申请开通。如需申请,请联系 [TiDB Cloud 支持](/tidb-cloud/tidb-cloud-support.md)。 - 优化 TiDB Cloud 的导入功能,提升数据导入体验。主要改进如下: - - TiDB Cloud Serverless 统一导入入口:整合本地文件导入和 Amazon S3 文件导入入口,便于切换。 - - 配置简化:Amazon S3 导入仅需一步配置,节省时间和精力。 + - TiDB Cloud Serverless 统一导入入口:整合本地文件和 Amazon S3 文件导入入口,便于切换。 + - 配置简化:从 Amazon S3 导入数据仅需一步,节省时间和精力。 - CSV 配置增强:CSV 配置项移至文件类型选项下,便于快速配置参数。 - 目标表选择优化:支持通过勾选选择目标表,无需复杂表达式,简化目标表选择。 - - 展示信息优化:修复导入过程中的信息不准确问题,并移除 Preview 功能,避免数据不全和误导。 - - 源文件映射改进:支持自定义源文件与目标表的映射关系,解决需修改源文件名以满足命名要求的问题。 + - 展示信息优化:修复导入过程中的信息不准确问题,并移除 Preview 功能,避免数据展示不全和误导。 + - 源文件映射增强:支持自定义源文件与目标表的映射关系,解决需修改源文件名以满足命名要求的难题。 ## 2023 年 7 月 11 日 @@ -350,59 +350,59 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 现已正式 GA。 -- 引入 TiDB Bot(beta),基于 OpenAI 的聊天机器人,支持多语言、7x24 实时响应、集成文档访问。 +- 推出 TiDB Bot(beta),基于 OpenAI 的聊天机器人,支持多语言、7x24 实时响应、集成文档访问。 TiDB Bot 为你带来以下优势: - 持续支持:随时为你解答问题,提升支持体验。 - - 效率提升:自动回复降低延迟,提升整体运维效率。 + - 效率提升:自动化响应降低延时,提升整体运维效率。 - 无缝文档访问:可直接访问 TiDB Cloud 文档,便于信息检索和快速解决问题。 - 使用方法:在 [TiDB Cloud 控制台](https://tidbcloud.com) 右下角点击 **?**,选择 **Ask TiDB Bot** 开始对话。 + 使用方法:点击 [TiDB Cloud 控制台](https://tidbcloud.com) 右下角 **?**,选择 **Ask TiDB Bot** 开始对话。 -- [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) cluster 支持 [分支功能(beta)](/tidb-cloud/branch-overview.md)。 +- [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 集群支持 [分支功能(beta)](/tidb-cloud/branch-overview.md)。 - TiDB Cloud 支持为 TiDB Cloud Serverless cluster 创建分支。分支是原 cluster 数据的独立副本,提供隔离环境,便于你自由实验而不影响原 cluster。 + TiDB Cloud 支持为 TiDB Cloud Serverless 集群创建分支。分支是原集群数据的分叉副本,提供隔离环境,便于你自由实验而不影响原集群。 - 你可以通过 [TiDB Cloud 控制台](/tidb-cloud/branch-manage.md) 或 [TiDB Cloud CLI](/tidb-cloud/ticloud-branch-create.md) 为 2023 年 7 月 5 日后创建的 TiDB Cloud Serverless cluster 创建分支。 + 2023 年 7 月 5 日后创建的 TiDB Cloud Serverless 集群可通过 [TiDB Cloud 控制台](/tidb-cloud/branch-manage.md) 或 [TiDB Cloud CLI](/tidb-cloud/ticloud-branch-create.md) 创建分支。 - 如果你使用 GitHub 进行应用开发,可将 TiDB Cloud Serverless 分支集成到 GitHub CI/CD 流水线,实现 PR 自动测试,避免影响生产数据库。详情参见 [将 TiDB Cloud Serverless 分支(Beta)集成到 GitHub](/tidb-cloud/branch-github-integration.md)。 + 如果你使用 GitHub 进行应用开发,可将 TiDB Cloud Serverless 分支集成到 GitHub CI/CD 流水线,实现 PR 自动测试而不影响生产库。详情参见 [集成 TiDB Cloud Serverless 分支(Beta)与 GitHub](/tidb-cloud/branch-github-integration.md)。 -- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 支持每周备份。详情参见 [备份与恢复 TiDB Cloud Dedicated 数据](/tidb-cloud/backup-and-restore.md#turn-on-auto-backup)。 +- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群支持每周备份。详情参见 [开启自动备份](/tidb-cloud/backup-and-restore.md#turn-on-auto-backup)。 ## 2023 年 7 月 4 日 **通用变更** -- [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) cluster 支持时间点恢复(PITR)(beta)。 +- [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 集群支持时间点恢复(PITR)(beta)。 - 你现在可以将 TiDB Cloud Serverless cluster 恢复到过去 90 天内的任意时间点。该功能增强了 TiDB Cloud Serverless cluster 的数据恢复能力。例如,当发生数据写入错误时,你可以通过 PITR 恢复到更早状态。 + 你现在可以将 TiDB Cloud Serverless 集群恢复到过去 90 天内的任意时间点。该功能增强了 TiDB Cloud Serverless 集群的数据恢复能力。例如,当发生数据写入错误时,你可以通过 PITR 恢复到更早状态。 详情参见 [备份与恢复 TiDB Cloud Serverless 数据](/tidb-cloud/backup-and-restore-serverless.md#restore)。 **控制台变更** -- 优化 [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) cluster 概览页的 **Usage This Month** 面板,提供更清晰的资源使用视图。 +- 优化 [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 集群概览页的 **Usage This Month** 面板,提供更清晰的资源使用视图。 - 优化整体导航体验,具体变更如下: - 将右上角 **Organization** 和 **Account** 合并到左侧导航栏。 - - 将左侧导航栏的 **Admin** 合并到左侧导航栏的 **Project**,并移除左上角 ☰ 悬浮菜单。现在你可以点击 切换项目及修改项目设置。 - - 将所有 TiDB Cloud 的帮助和支持信息整合到右下角 **?** 图标菜单,包括文档、交互式教程、自助培训和支持入口。 + - 将左侧导航栏 **Admin** 合并到 **Project**,并移除左上角 ☰ 悬浮菜单。现在你可以点击 切换项目及修改项目设置。 + - 将所有 TiDB Cloud 的帮助与支持信息整合到右下角 **?** 图标菜单,包括文档、交互式教程、自助培训和支持入口。 -- TiDB Cloud 控制台现支持暗黑模式,带来更舒适、护眼的体验。你可在左侧导航栏底部切换明暗模式。 +- TiDB Cloud 控制台现已支持暗黑模式,带来更舒适、护眼的体验。你可以在左侧导航栏底部切换明暗模式。 ## 2023 年 6 月 27 日 **通用变更** -- 新建 [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) cluster 不再预置示例数据集。 +- 新建 [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 集群不再预置示例数据集。 ## 2023 年 6 月 20 日 **通用变更** -- 新建 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的默认 TiDB 版本由 [v6.5.2](https://docs.pingcap.com/tidb/stable/release-6.5.2) 升级为 [v6.5.3](https://docs.pingcap.com/tidb/stable/release-6.5.3)。 +- 新建 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的默认 TiDB 版本由 [v6.5.2](https://docs.pingcap.com/tidb/stable/release-6.5.2) 升级为 [v6.5.3](https://docs.pingcap.com/tidb/stable/release-6.5.3)。 ## 2023 年 6 月 13 日 @@ -410,46 +410,46 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - 支持通过 changefeed 将数据流式同步到 Amazon S3。 - 该功能实现 TiDB Cloud 与 Amazon S3 的无缝集成,支持将 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的实时数据捕获和复制到 Amazon S3,确保下游应用和分析系统获取最新数据。 + 该功能实现 TiDB Cloud 与 Amazon S3 的无缝集成。可将 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的实时数据捕获并同步到 Amazon S3,确保下游应用和分析系统获取最新数据。 - 详情参见 [Sink 到云存储](/tidb-cloud/changefeed-sink-to-cloud-storage.md)。 + 详情参见 [同步到云存储](/tidb-cloud/changefeed-sink-to-cloud-storage.md)。 -- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的 16 vCPU TiKV 节点最大存储由 4 TiB 提升至 6 TiB。 +- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的 16 vCPU TiKV 节点最大存储由 4 TiB 提升至 6 TiB。 - 该增强提升了 TiDB Cloud Dedicated cluster 的存储能力,提高 workload 扩展效率,满足数据增长需求。 + 该增强提升了 TiDB Cloud Dedicated 集群的数据存储能力,提高了 workload 扩展效率,满足不断增长的数据需求。 详情参见 [集群规格选择](/tidb-cloud/size-your-cluster.md)。 -- [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) cluster 的 [监控指标保留时间](/tidb-cloud/built-in-monitoring.md#metrics-retention-policy) 从 3 天延长至 7 天。 +- [TiDB Cloud Serverless](/tidb-cloud/select-cluster-tier.md#starter) 集群的 [监控指标保留时间](/tidb-cloud/built-in-monitoring.md#metrics-retention-policy) 从 3 天延长至 7 天。 - 保留时间延长后,你可访问更多历史数据,有助于识别 cluster 趋势和模式,提升决策和故障排查效率。 + 保留时间延长后,你可访问更多历史数据,有助于识别集群趋势和模式,提升决策和故障排查效率。 **控制台变更** -- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的 [**Key Visualizer**](/tidb-cloud/tune-performance.md#key-visualizer) 页面发布全新原生 Web 架构。 +- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的 [**Key Visualizer**](/tidb-cloud/tune-performance.md#key-visualizer) 页面发布全新原生 Web 架构。 - 新架构让你更便捷地浏览 **Key Visualizer** 页面,获取所需信息,提升交互体验,并优化 SQL 诊断流程。 + 新架构让你更便捷地浏览 **Key Visualizer** 页面,获取所需信息,提升了 SQL 诊断的用户体验。 ## 2023 年 6 月 6 日 **通用变更** -- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 引入 Index Insight(beta),为慢 query 提供索引推荐,优化 query performance。 +- [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群引入 Index Insight(beta),为慢 query 提供索引推荐,优化 query 性能。 - 使用 Index Insight,你可通过以下方式提升数据库操作的整体 application performance 和效率: + 通过 Index Insight,你可以提升数据库操作的整体性能和效率,具体包括: - - 查询性能提升:Index Insight 识别慢 query 并推荐合适索引,加速 query 执行,降低响应时间,提升用户体验。 - - 成本效益:通过 Index Insight 优化 query performance,减少额外计算资源需求,更高效利用现有架构,降低运维成本。 - - 优化流程简化:Index Insight 简化索引优化的识别和实施,无需手动分析和猜测,节省时间和精力。 - - 应用效率提升:通过 Index Insight 优化数据库 performance,TiDB Cloud 上的应用可承载更大 workload 并支持更多并发用户,提升应用扩展效率。 + - 查询性能提升:Index Insight 识别慢 query 并建议合适索引,加速 query 执行,降低响应时间,提升用户体验。 + - 成本效益:通过 Index Insight 优化 query 性能,减少额外计算资源需求,更高效利用现有架构,降低运维成本。 + - 优化流程简化:Index Insight 简化索引优化的识别与实施,无需手动分析和猜测,节省时间和精力。 + - 应用效率提升:通过 Index Insight 优化数据库性能,TiDB Cloud 上的应用可承载更大 workload 并支持更多并发用户,提升应用扩展效率。 - 使用方法:进入 TiDB Cloud Dedicated cluster 的 **Diagnosis** 页面,点击 **Index Insight BETA** 标签页。 + 使用方法:进入 TiDB Cloud Dedicated 集群的 **Diagnosis** 页面,点击 **Index Insight BETA** 标签页。 - 推出 [TiDB Playground](https://play.tidbcloud.com/?utm_source=docs&utm_medium=tidb_cloud_release_notes),无需注册或安装即可体验 TiDB 全功能的交互式平台。 TiDB Playground 提供一站式体验,便于探索 TiDB 的扩展性、MySQL 兼容性、实时分析等能力。 - 你可在受控环境下实时试用 TiDB 功能,无需复杂配置,便于理解 TiDB 特性。 + 你可以在受控环境下实时试用 TiDB 功能,无需复杂配置,便于理解 TiDB 特性。 立即体验,请访问 [**TiDB Playground**](https://play.tidbcloud.com/?utm_source=docs&utm_medium=tidb_cloud_release_notes) 页面,选择你想探索的功能,开始体验。 @@ -459,16 +459,16 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - 支持将 [Data App](/tidb-cloud/tidb-cloud-glossary.md#data-app) 连接到 GitHub。 - [连接 Data App 到 GitHub](/tidb-cloud/data-service-manage-github-connection.md) 后,你可将 Data App 的所有配置作为 [代码文件](/tidb-cloud/data-service-app-config-files.md) 在 Github 上管理,实现 TiDB Cloud Data Service 与系统架构和 DevOps 流程的无缝集成。 + [连接 Data App 到 GitHub](/tidb-cloud/data-service-manage-github-connection.md) 后,你可以将 Data App 的所有配置作为 [代码文件](/tidb-cloud/data-service-app-config-files.md) 管理,实现 TiDB Cloud Data Service 与系统架构和 DevOps 流程的无缝集成。 - 该功能提升 Data App 开发的 CI/CD 体验,支持: + 该功能可帮助你轻松完成以下任务,提升 Data App 开发的 CI/CD 体验: - 通过 GitHub 自动部署 Data App 变更。 - 在 GitHub 上配置 Data App 变更的 CI/CD 流水线并进行版本控制。 - - 断开已连接的 GitHub 仓库。 - - 部署前 review endpoint 变更。 + - 断开与已连接 GitHub 仓库的关联。 + - 部署前审查 endpoint 变更。 - 查看部署历史并在失败时采取措施。 - - 重新部署 commit 以回滚到早期部署。 + - 重新部署 commit,实现回滚。 详情参见 [通过 GitHub 自动部署 Data App](/tidb-cloud/data-service-manage-github-connection.md)。 @@ -476,7 +476,7 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -- 为简化和明确产品命名,现已更新产品名称: +- 为简化和明晰产品命名,我们对产品名称进行了更新: - “TiDB Cloud Serverless Tier” 现称为 “TiDB Cloud Serverless”。 - “TiDB Cloud Dedicated Tier” 现称为 “TiDB Cloud Dedicated”。 @@ -490,7 +490,7 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - 增强 TiDB Cloud 数据迁移功能对增量数据迁移的支持。 - 你现在可以指定 binlog 位置或全局 transaction 标识符(GTID),仅复制指定位置之后产生的增量数据到 TiDB Cloud。该增强为你提供更大灵活性,按需选择和复制数据。 + 你现在可以指定 binlog position 或全局 transaction 标识符(GTID),仅同步指定位置之后产生的增量数据到 TiDB Cloud。该增强为你选择和同步所需数据提供了更大灵活性,满足特定需求。 详情参见 [仅迁移 MySQL 兼容数据库的增量数据到 TiDB Cloud](/tidb-cloud/migrate-incremental-data-from-mysql-using-data-migration.md)。 @@ -498,13 +498,13 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - 从 TiDB Cloud 控制台移除 **Playground**。 - 敬请期待全新独立 Playground,体验将进一步优化。 + 敬请期待全新独立 Playground,体验更优。 ## 2023 年 5 月 23 日 **通用变更** -- 上传 CSV 文件到 TiDB 时,除英文和数字外,还可使用中文、日文等字符定义列名。但特殊字符仅支持下划线(`_`)。 +- 上传 CSV 文件到 TiDB 时,除英文和数字外,还可用中文、日文等字符定义列名。但特殊字符仅支持下划线(`_`)。 详情参见 [导入本地文件到 TiDB Cloud](/tidb-cloud/tidb-cloud-import-local-files.md)。 @@ -512,32 +512,32 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **控制台变更** -- 为 Dedicated 和 Serverless tier 引入按功能分类的左侧导航入口。 +- 为 Dedicated 和 Serverless 两种 tier 引入按功能分类的左侧导航入口。 - 新导航让你更便捷直观地发现功能入口。访问 cluster 概览页即可体验新导航。 + 新导航让你更便捷、直观地发现功能入口。访问集群概览页即可体验新导航。 -- 为 Dedicated Tier cluster 的 **Diagnosis** 页的以下两个标签页发布全新原生 Web 架构。 +- 为 Dedicated Tier 集群的 **Diagnosis** 页的以下两个标签页发布全新原生 Web 架构: - [Slow Query](/tidb-cloud/tune-performance.md#slow-query) - [SQL Statement](/tidb-cloud/tune-performance.md#statement-analysis) - 新架构让你更便捷地浏览这两个标签页,获取所需信息,提升交互体验,优化 SQL 诊断流程。 + 新架构让你更便捷地浏览这两个标签页,获取所需信息,提升 SQL 诊断的用户体验。 ## 2023 年 5 月 9 日 **通用变更** -- 支持为 2023 年 4 月 26 日后创建的 GCP 托管 cluster 更改节点规格。 +- 支持为 2023 年 4 月 26 日后创建的 GCP 集群变更节点规格。 - 你可以根据需求升级为高性能节点,或降级为低性能节点以节省成本。该功能提升了 cluster 容量调整的灵活性,助你优化成本。 + 你可以根据需求升级为高性能节点,或降级为低性能节点以节省成本。该功能让你灵活调整集群容量,优化成本。 - 详细步骤参见 [更改节点规格](/tidb-cloud/scale-tidb-cluster.md#change-vcpu-and-ram)。 + 详细步骤参见 [变更节点规格](/tidb-cloud/scale-tidb-cluster.md#change-vcpu-and-ram)。 - 支持导入压缩文件。你可以导入 `.gzip`、`.gz`、`.zstd`、`.zst`、`.snappy` 格式的 CSV 和 SQL 文件。该功能提升了数据导入效率,降低数据传输成本。 详情参见 [从云存储导入 CSV 文件到 TiDB Cloud Dedicated](/tidb-cloud/import-csv-files.md) 及 [导入示例数据](/tidb-cloud/import-sample-data.md)。 -- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 新增基于 AWS PrivateLink 的 endpoint 连接作为网络访问管理选项。 +- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群支持基于 AWS PrivateLink 的 endpoint 连接,作为新的网络访问管理选项。 私有 endpoint 连接不会将你的数据暴露在公网,并支持 CIDR 重叠,便于网络管理。 @@ -545,17 +545,17 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **控制台变更** -- [**Event**](/tidb-cloud/tidb-cloud-events.md) 页面新增事件类型,记录 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的备份、恢复和 changefeed 操作。 +- [**Event**](/tidb-cloud/tidb-cloud-events.md) 页面新增事件类型,记录 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的备份、恢复、changefeed 操作。 所有可记录事件参见 [已记录事件](/tidb-cloud/tidb-cloud-events.md#logged-events)。 -- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 的 [**SQL Diagnosis**](/tidb-cloud/tune-performance.md) 页面新增 **SQL Statement** 标签页。 +- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群的 [**SQL Diagnosis**](/tidb-cloud/tune-performance.md) 页面新增 **SQL Statement** 标签页。 **SQL Statement** 标签页提供: - TiDB 数据库所有 SQL statement 的全面概览,便于识别和诊断慢 query。 - - 每条 SQL statement 的详细信息,如 query 时间、执行计划、数据库 server 响应,助你优化数据库 performance。 - - 友好的界面,便于对大量数据进行排序、过滤和搜索,聚焦关键 query。 + - 每条 SQL statement 的详细信息,如 query 时间、执行计划、数据库 server 响应,助你优化数据库性能。 + - 友好的界面,便于对大量数据进行排序、筛选和搜索,聚焦关键 query。 详情参见 [Statement Analysis](/tidb-cloud/tune-performance.md#statement-analysis)。 @@ -563,9 +563,9 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -- 支持直接访问 TiDB [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 所在 region 的 [Data Service endpoint](/tidb-cloud/tidb-cloud-glossary.md#endpoint)。 +- 支持直接访问 TiDB [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群所在 region 的 [Data Service endpoint](/tidb-cloud/tidb-cloud-glossary.md#endpoint)。 - 新建 Serverless Tier cluster 的 endpoint URL 现包含 cluster region 信息。通过请求区域域名 `.data.tidbcloud.com`,可直接访问 cluster 所在 region 的 endpoint。 + 新建 Serverless Tier 集群的 endpoint URL 现包含集群 region 信息。通过请求区域域名 `.data.tidbcloud.com`,可直接访问集群所在 region 的 endpoint。 你也可以请求全局域名 `data.tidbcloud.com`,此时 TiDB Cloud 会内部重定向到目标 region,但可能增加延时。如采用此方式,调用 endpoint 时请确保 curl 命令加上 `--location-trusted` 选项。 @@ -575,68 +575,68 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -- 你的 organization 前五个 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 均享有如下免费额度: +- 你的组织下前 5 个 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群,每个都可享受如下免费额度: - 行存储:5 GiB - [Request Units (RUs)](/tidb-cloud/tidb-cloud-glossary.md#request-unit-ru):每月 5000 万 RUs - 截至 2023 年 5 月 31 日,Serverless Tier cluster 仍免费(100% 折扣)。之后,超出免费额度部分将计费。 + 截至 2023 年 5 月 31 日,Serverless Tier 集群仍免费(100% 折扣)。之后超出免费额度部分将计费。 - 你可在 cluster **Overview** 页的 **Usage This Month** 区域 [监控 cluster 使用量或提升额度](/tidb-cloud/manage-serverless-spend-limit.md)。当 cluster 免费额度用尽时,读写操作将被限流,直至提升额度或新月重置。 + 你可以在集群 **Overview** 页的 **Usage This Month** 区域 [监控集群用量或提升额度](/tidb-cloud/manage-serverless-spend-limit.md)。集群用量达到免费额度后,读写操作将被限流,直至提升额度或新月重置。 各资源(包括读、写、SQL CPU、网络出口)的 RU 消耗、定价及限流信息,参见 [TiDB Cloud Serverless Tier 价格详情](https://www.pingcap.com/tidb-cloud-starter-pricing-details)。 -- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 支持备份与恢复。 +- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群支持备份与恢复。 - 详情参见 [备份与恢复 TiDB cluster 数据](/tidb-cloud/backup-and-restore-serverless.md)。 + 详情参见 [备份与恢复 TiDB 集群数据](/tidb-cloud/backup-and-restore-serverless.md)。 -- 新建 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的默认 TiDB 版本由 [v6.5.1](https://docs.pingcap.com/tidb/stable/release-6.5.1) 升级为 [v6.5.2](https://docs.pingcap.com/tidb/stable/release-6.5.2)。 +- 新建 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的默认 TiDB 版本由 [v6.5.1](https://docs.pingcap.com/tidb/stable/release-6.5.1) 升级为 [v6.5.2](https://docs.pingcap.com/tidb/stable/release-6.5.2)。 -- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 提供维护窗口功能,便于你调度和管理计划内维护活动。 +- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群提供维护窗口功能,便于你轻松安排和管理计划性维护。 - 维护窗口是指定时间段,期间自动执行操作系统更新、安全补丁、基础设施升级等计划内维护,保障 TiDB Cloud service 的可靠性、安全性和 performance。 + 维护窗口是指定时间段,自动执行操作系统更新、安全补丁、基础设施升级等计划性维护,保障 TiDB Cloud 服务的可靠性、安全性和性能。 - 维护窗口期间,可能出现临时连接中断或 QPS 波动,但 cluster 保持可用,SQL 操作、数据导入、备份、恢复、迁移、同步任务均可正常运行。维护期间允许和不允许的操作参见 [操作列表](/tidb-cloud/configure-maintenance-window.md#allowed-and-disallowed-operations-during-a-maintenance-window)。 + 维护窗口期间,可能出现临时连接中断或 QPS 波动,但集群保持可用,SQL 操作、现有数据导入、备份、恢复、迁移、同步任务均可正常运行。维护期间允许和不允许的操作详见 [维护窗口期间的操作列表](/tidb-cloud/configure-maintenance-window.md#allowed-and-disallowed-operations-during-a-maintenance-window)。 - 我们将尽量减少维护频率。如有维护计划,默认开始时间为目标周三 03:00(以 TiDB Cloud organization 时区为准)。请关注维护计划,合理安排操作,避免影响。 + 我们将尽量减少维护频率。如有维护计划,默认开始时间为目标周三 03:00(以 TiDB Cloud 组织时区为准)。请关注维护计划,合理安排操作,避免影响。 - - TiDB Cloud 会为每次维护窗口发送三封邮件通知:维护前、开始时、结束后。 + - TiDB Cloud 会为每个维护窗口发送三封邮件通知:维护前、开始时、结束后。 - 你可在 **Maintenance** 页面修改维护开始时间或延后维护,降低影响。 详情参见 [配置维护窗口](/tidb-cloud/configure-maintenance-window.md)。 -- 优化 AWS 上新建 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的 TiDB 负载均衡,缩减扩缩容时的连接中断。 +- 优化 AWS 上新建的 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的 TiDB 负载均衡,缩容/扩容 TiDB 节点时减少连接中断。 - 扩容 TiDB 节点时,支持自动迁移现有连接到新 TiDB 节点。 - 缩容 TiDB 节点时,支持自动迁移现有连接到可用 TiDB 节点。 - 目前该功能适用于所有 AWS 托管的 Dedicated Tier cluster。 + 目前该功能适用于所有 AWS 上的 Dedicated Tier 集群。 **控制台变更** -- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的 [Monitoring](/tidb-cloud/built-in-monitoring.md#view-the-metrics-page) 页面发布全新原生 Web 架构。 +- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的 [Monitoring](/tidb-cloud/built-in-monitoring.md#view-the-metrics-page) 页面发布全新原生 Web 架构。 - 新架构让你更便捷地浏览 [Monitoring](/tidb-cloud/built-in-monitoring.md#view-the-metrics-page) 页面,获取所需信息,提升交互体验,优化监控流程。 + 新架构让你更便捷地浏览 [Monitoring](/tidb-cloud/built-in-monitoring.md#view-the-metrics-page) 页面,获取所需信息,提升监控体验。 ## 2023 年 4 月 18 日 **通用变更** -- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 支持扩缩 [数据迁移作业规格](/tidb-cloud/tidb-cloud-billing-dm.md#specifications-for-data-migration)。 +- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群支持扩容/缩容 [数据迁移作业规格](/tidb-cloud/tidb-cloud-billing-dm.md#specifications-for-data-migration)。 - 你可以通过扩容提升迁移 performance,或通过缩容降低成本。 + 你可以通过扩容提升迁移性能,或通过缩容降低成本。 详情参见 [使用数据迁移迁移 MySQL 兼容数据库到 TiDB Cloud](/tidb-cloud/migrate-from-mysql-using-data-migration.md#scale-a-migration-job-specification)。 **控制台变更** -- 全新 UI 设计,优化 [cluster 创建](https://tidbcloud.com/clusters/create-cluster)体验,让你几步即可创建和配置 cluster。 +- 重构 [集群创建](https://tidbcloud.com/clusters/create-cluster) UI,提升用户体验,让你只需几步即可创建和配置集群。 - 新设计聚焦简洁,减少视觉干扰,提供清晰指引。点击 **Create** 后,无需等待 cluster 创建完成,即可跳转到 cluster 概览页。 + 新设计注重简洁、减少视觉干扰、提供清晰指引。点击 **Create** 后将直接跳转到集群概览页,无需等待集群创建完成。 - 详情参见 [创建 cluster](/tidb-cloud/create-tidb-cluster.md)。 + 详情参见 [创建集群](/tidb-cloud/create-tidb-cluster.md)。 -- **Billing** 页新增 **Discounts** 标签,展示 organization owner 和 billing admin 的折扣信息。 +- **Billing** 页新增 **Discounts** 标签,展示组织 owner 和 billing admin 的折扣信息。 详情参见 [Discounts](/tidb-cloud/tidb-cloud-billing.md#discounts)。 @@ -644,76 +644,76 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -- 优化 AWS 上 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的 TiDB 负载均衡,缩减扩缩容时的连接中断。 +- 优化 AWS 上 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的 TiDB 负载均衡,缩容/扩容 TiDB 节点时减少连接中断。 - 扩容 TiDB 节点时,支持自动迁移现有连接到新 TiDB 节点。 - 缩容 TiDB 节点时,支持自动迁移现有连接到可用 TiDB 节点。 - 目前该功能仅适用于 AWS `Oregon (us-west-2)` 区域的 Dedicated Tier cluster。 + 目前该功能仅适用于 AWS `Oregon (us-west-2)` region 的 Dedicated Tier 集群。 -- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 支持集成 [New Relic](https://newrelic.com/)。 +- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群支持 [New Relic](https://newrelic.com/) 集成。 - 你可以配置 TiDB Cloud,将 TiDB cluster 的指标数据发送到 [New Relic](https://newrelic.com/),在 New Relic 上同时监控应用和 TiDB 数据库 performance,便于快速定位和排查问题,缩短故障恢复时间。 + 通过 New Relic 集成,你可以将 TiDB 集群的 metric 数据发送到 [New Relic](https://newrelic.com/),实现应用和数据库的统一监控与分析,便于快速定位和排查问题,缩短故障处理时间。 集成步骤及可用指标参见 [集成 TiDB Cloud 与 New Relic](/tidb-cloud/monitor-new-relic-integration.md)。 -- 为 Dedicated Tier cluster 的 Prometheus 集成新增以下 [changefeed](/tidb-cloud/changefeed-overview.md) 指标: +- 为 Dedicated Tier 集群的 Prometheus 集成新增以下 [changefeed](/tidb-cloud/changefeed-overview.md) 指标: - `tidbcloud_changefeed_latency` - `tidbcloud_changefeed_replica_rows` - 已集成 Prometheus 的情况下,你可实时监控 changefeed 的 performance 和健康状况,并可基于这些指标创建报警。 + 已集成 Prometheus 的用户可实时监控 changefeed 的性能和健康状况,并可基于这些指标创建报警。 **控制台变更** -- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的 [Monitoring](/tidb-cloud/built-in-monitoring.md#view-the-metrics-page) 页面现采用 [节点级资源指标](/tidb-cloud/built-in-monitoring.md#server)。 +- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的 [Monitoring](/tidb-cloud/built-in-monitoring.md#view-the-metrics-page) 页面现采用 [节点级资源指标](/tidb-cloud/built-in-monitoring.md#server)。 - 节点级资源指标让你更准确地了解资源消耗,便于掌握实际服务使用情况。 + 节点级资源指标可更准确反映资源消耗,帮助你了解实际服务使用情况。 - 访问方法:进入 cluster 的 [Monitoring](/tidb-cloud/built-in-monitoring.md#view-the-metrics-page) 页面,在 **Metrics** 标签下选择 **Server** 类别。 + 访问方法:进入集群的 [Monitoring](/tidb-cloud/built-in-monitoring.md#view-the-metrics-page) 页面,在 **Metrics** 标签下查看 **Server** 类别。 -- 优化 [Billing](/tidb-cloud/tidb-cloud-billing.md#billing-details) 页面,将 **Summary by Project** 和 **Summary by Service** 的账单项重新组织,账单信息更清晰。 +- 优化 [Billing](/tidb-cloud/tidb-cloud-billing.md#billing-details) 页面,重组 **Summary by Project** 和 **Summary by Service** 的账单项,使账单信息更清晰。 ## 2023 年 4 月 4 日 **通用变更** -- 从 [TiDB Cloud 内置报警](/tidb-cloud/monitor-built-in-alerting.md#tidb-cloud-built-in-alert-conditions) 移除以下两项报警,避免误报。因为单个节点临时下线或 OOM 不会显著影响 cluster 整体健康。 +- 从 [TiDB Cloud 内置报警](/tidb-cloud/monitor-built-in-alerting.md#tidb-cloud-built-in-alert-conditions) 中移除以下两项报警,避免误报。因为单个节点临时 offline 或 OOM 不会显著影响集群整体健康。 - - 至少一个 TiDB 节点 OOM。 - - 一个或多个 cluster 节点下线。 + - 集群中至少一个 TiDB 节点 OOM。 + - 一个或多个集群节点 offline。 **控制台变更** -- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 新增 [Alerts](/tidb-cloud/monitor-built-in-alerting.md) 页面,列出每个 Dedicated Tier cluster 的活跃和已关闭报警。 +- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群新增 [Alerts](/tidb-cloud/monitor-built-in-alerting.md) 页面,展示每个 Dedicated Tier 集群的活跃和已关闭报警。 **Alerts** 页面提供: - - 直观友好的界面。即使未订阅报警邮件,也可在此页面查看 cluster 报警。 - - 高级过滤选项,便于按严重性、状态等属性快速查找和排序报警,并可查看最近 7 天历史,便于报警追溯。 - - **Edit Rule** 功能。你可自定义报警规则,满足 cluster 的特定需求。 + - 直观友好的界面。即使未订阅报警邮件,也可在此页面查看集群报警。 + - 高级筛选,按严重性、状态等属性快速查找和排序报警,并可查看最近 7 天历史,便于追踪报警历史。 + - **Edit Rule** 功能。你可自定义报警规则,满足集群特定需求。 详情参见 [TiDB Cloud 内置报警](/tidb-cloud/monitor-built-in-alerting.md)。 - 将 TiDB Cloud 的帮助相关信息和操作整合到一个入口。 - 现在,你可在 [TiDB Cloud 控制台](https://tidbcloud.com/) 右下角点击 **?** 获取所有 [TiDB Cloud 帮助信息](/tidb-cloud/tidb-cloud-support.md) 并联系支持。 + 现在,你可点击 [TiDB Cloud 控制台](https://tidbcloud.com/) 右下角 **?** 获取所有 [TiDB Cloud 帮助信息](/tidb-cloud/tidb-cloud-support.md) 并联系支持。 -- 新增 [Getting Started](https://tidbcloud.com/getting-started) 页面,帮助你了解 TiDB Cloud。 +- 推出 [Getting Started](https://tidbcloud.com/getting-started) 页面,帮助你了解 TiDB Cloud。 **Getting Started** 页面提供交互式教程、基础指南和实用链接。通过交互式教程,你可轻松体验 TiDB Cloud 功能和 HTAP 能力,内置行业数据集(Steam Game Dataset 和 S&P 500 Dataset)。 - 访问方法:在 [TiDB Cloud 控制台](https://tidbcloud.com/) 左侧导航栏点击 **Getting Started**。你可点击 **Query Sample Dataset** 打开交互式教程,或点击其他链接探索 TiDB Cloud。也可点击右下角 **?**,再点 **Interactive Tutorials**。 + 访问方法:点击 [TiDB Cloud 控制台](https://tidbcloud.com/) 左侧导航栏 **Getting Started**,点击 **Query Sample Dataset** 进入交互式教程,或点击其他链接探索 TiDB Cloud。你也可以点击右下角 **?**,选择 **Interactive Tutorials**。 ## 2023 年 3 月 29 日 **通用变更** -- [Data Service (beta)](/tidb-cloud/data-service-overview.md) 支持 Data App 更细粒度的访问控制。 +- [Data Service (beta)](/tidb-cloud/data-service-overview.md) 支持 Data App 的更细粒度访问控制。 - 在 Data App 详情页,你可关联 cluster 并为每个 API key 指定角色。角色控制 API key 是否可对关联 cluster 读写数据,可设为 `ReadOnly` 或 `ReadAndWrite`。该功能实现 Data App 的 cluster 级和权限级访问控制,便于按业务需求灵活控制访问 scope。 + 在 Data App 详情页,你可以关联集群并为每个 API key 指定角色。角色控制 API key 是否可对关联集群读写数据,可设为 `ReadOnly` 或 `ReadAndWrite`。该功能实现 Data App 的集群级和权限级访问控制,灵活满足业务需求。 - 详情参见 [管理关联 cluster](/tidb-cloud/data-service-manage-data-app.md#manage-linked-data-sources) 和 [管理 API key](/tidb-cloud/data-service-api-key.md)。 + 详情参见 [管理关联集群](/tidb-cloud/data-service-manage-data-app.md#manage-linked-data-sources) 和 [管理 API key](/tidb-cloud/data-service-api-key.md)。 ## 2023 年 3 月 28 日 @@ -721,44 +721,44 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - [changefeed](/tidb-cloud/changefeed-overview.md) 新增 2 RCUs、4 RCUs、8 RCUs 规格,支持在 [创建 changefeed](/tidb-cloud/changefeed-overview.md#create-a-changefeed) 时选择所需规格。 - 使用新规格,数据同步成本最高可降低 87.5%(相较原需 16 RCUs 的 scenario)。 + 使用新规格,数据同步成本最高可降低 87.5%(相较于原需 16 RCUs 的场景)。 -- 支持为 2023 年 3 月 28 日后创建的 [changefeed](/tidb-cloud/changefeed-overview.md) 扩缩规格。 +- 支持为 2023 年 3 月 28 日后创建的 [changefeed](/tidb-cloud/changefeed-overview.md) 扩容/缩容规格。 - 你可通过选择更高规格提升同步 performance,或选择更低规格降低同步成本。 + 你可以通过选择更高规格提升同步性能,或选择更低规格降低同步成本。 - 详情参见 [扩缩 changefeed](/tidb-cloud/changefeed-overview.md#scale-a-changefeed)。 + 详情参见 [扩容/缩容 changefeed](/tidb-cloud/changefeed-overview.md#scale-a-changefeed)。 -- 支持将 AWS 上 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的增量数据实时同步到同项目同 region 的 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster。 +- 支持将 AWS 上 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的增量数据实时同步到同项目同 region 的 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群。 - 详情参见 [Sink 到 TiDB Cloud](/tidb-cloud/changefeed-sink-to-tidb-cloud.md)。 + 详情参见 [同步到 TiDB Cloud](/tidb-cloud/changefeed-sink-to-tidb-cloud.md)。 -- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的 [数据迁移](/tidb-cloud/migrate-from-mysql-using-data-migration.md) 功能新增支持两个 GCP 区域:`Singapore (asia-southeast1)` 和 `Oregon (us-west1)`。 +- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的数据迁移功能新增两个 GCP region:`Singapore (asia-southeast1)` 和 `Oregon (us-west1)`。 - 新增 region 后,你有更多选择将数据迁移到 TiDB Cloud。如果上游数据存储在或靠近这些 region,可获得更快、更可靠的 GCP 到 TiDB Cloud 数据迁移。 + 新 region 为你提供更多数据迁移到 TiDB Cloud 的选择。如果上游数据位于或接近这些 region,可获得更快、更可靠的迁移体验。 详情参见 [使用数据迁移迁移 MySQL 兼容数据库到 TiDB Cloud](/tidb-cloud/migrate-from-mysql-using-data-migration.md)。 **控制台变更** -- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 的 [Slow Query](/tidb-cloud/tune-performance.md#slow-query) 页面发布全新原生 Web 架构。 +- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群的 [Slow Query](/tidb-cloud/tune-performance.md#slow-query) 页面发布全新原生 Web 架构。 - 新架构让你更便捷地浏览 [Slow Query](/tidb-cloud/tune-performance.md#slow-query) 页面,获取所需信息,提升交互体验,优化 SQL 诊断流程。 + 新架构让你更便捷地浏览 [Slow Query](/tidb-cloud/tune-performance.md#slow-query) 页面,提升 SQL 诊断体验。 ## 2023 年 3 月 21 日 **通用变更** -- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 推出 [Data Service (beta)](https://tidbcloud.com/project/data-service),支持通过自定义 API endpoint 以 HTTPS request 方式访问数据。 +- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群引入 [Data Service (beta)](https://tidbcloud.com/project/data-service),支持通过自定义 API endpoint 以 HTTPS 方式访问数据。 - Data Service 让 TiDB Cloud 可无缝集成到任何兼容 HTTPS 的应用或 service。常见 scenario 包括: + Data Service 让 TiDB Cloud 可无缝集成任何兼容 HTTPS 的应用或服务。常见 scenario 包括: - - 直接从移动或 Web 应用访问 TiDB cluster 数据库。 - - 使用 serverless edge function 调用 endpoint,避免数据库连接池导致的扩展性问题。 + - 直接从移动或 Web 应用访问 TiDB 集群数据库。 + - 使用 serverless edge function 调用 endpoint,避免数据库连接池带来的扩展性问题。 - 通过 Data Service 作为数据源集成数据可视化项目。 - - 在 MySQL interface 不支持的环境下连接数据库。 + - 从不支持 MySQL interface 的环境连接数据库。 - 此外,TiDB Cloud 提供 [Chat2Query API](/tidb-cloud/use-chat2query-api.md),可通过 RESTful interface 基于 AI 生成并执行 SQL statement。 + 此外,TiDB Cloud 提供 [Chat2Query API](/tidb-cloud/use-chat2query-api.md),可通过 RESTful 接口结合 AI 生成并执行 SQL statement。 访问方法:左侧导航栏进入 [**Data Service**](https://tidbcloud.com/project/data-service) 页面。更多信息参见: @@ -766,81 +766,81 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - [Data Service 入门](/tidb-cloud/data-service-get-started.md) - [Chat2Query API 入门](/tidb-cloud/use-chat2query-api.md) -- 支持对 2022 年 12 月 31 日后在 AWS 上创建的 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 缩小 TiDB、TiKV、TiFlash 节点规格,实现扩缩容。 +- 支持对 2022 年 12 月 31 日后在 AWS 上创建的 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群缩容 TiDB、TiKV、TiFlash 节点规格。 - 你可通过 [TiDB Cloud 控制台](/tidb-cloud/scale-tidb-cluster.md#change-vcpu-and-ram) 或 [TiDB Cloud API (beta)](https://docs.pingcap.com/tidbcloud/api/v1beta#tag/Cluster/operation/UpdateCluster) 缩小节点规格。 + 你可以通过 [TiDB Cloud 控制台](/tidb-cloud/scale-tidb-cluster.md#change-vcpu-and-ram) 或 [TiDB Cloud API (beta)](https://docs.pingcap.com/tidbcloud/api/v1beta#tag/Cluster/operation/UpdateCluster) 缩容节点规格。 -- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的 [数据迁移](/tidb-cloud/migrate-from-mysql-using-data-migration.md) 功能新增支持 GCP 区域:`Tokyo (asia-northeast1)`。 +- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的数据迁移功能新增 GCP region:`Tokyo (asia-northeast1)`。 - 该功能便于将 Google Cloud Platform (GCP) 上的 MySQL 兼容数据库迁移到 TiDB cluster。 + 该功能可帮助你将 Google Cloud Platform (GCP) 上的 MySQL 兼容数据库数据高效迁移到 TiDB 集群。 详情参见 [使用数据迁移迁移 MySQL 兼容数据库到 TiDB Cloud](/tidb-cloud/migrate-from-mysql-using-data-migration.md)。 **控制台变更** -- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 新增 **Events** 页面,记录 cluster 的主要变更。 +- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群新增 **Events** 页面,记录集群主要变更。 - 你可在该页面查看最近 7 天的事件历史,并追踪触发时间、操作用户等重要信息。例如,可查看 cluster 何时暂停、谁修改了 cluster 规格等。 + 你可以查看最近 7 天的事件历史,追踪触发时间、操作用户等重要信息。例如,可查看集群暂停、规格变更等事件。 - 详情参见 [TiDB Cloud cluster 事件](/tidb-cloud/tidb-cloud-events.md)。 + 详情参见 [TiDB Cloud 集群事件](/tidb-cloud/tidb-cloud-events.md)。 -- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 的 **Monitoring** 页面新增 **Database Status** 标签,展示以下数据库级指标: +- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群的 **Monitoring** 页面新增 **Database Status** 标签,展示以下数据库级指标: - QPS Per DB - Average Query Duration Per DB - Failed Queries Per DB - 通过这些指标,你可监控各数据库 performance,做出数据驱动决策,提升应用 performance。 + 通过这些指标,你可以监控各数据库的性能,做出数据驱动决策,提升应用性能。 - 详情参见 [Serverless Tier cluster 监控指标](/tidb-cloud/built-in-monitoring.md)。 + 详情参见 [Serverless Tier 集群监控指标](/tidb-cloud/built-in-monitoring.md)。 ## 2023 年 3 月 14 日 **通用变更** -- 新建 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的默认 TiDB 版本由 [v6.5.0](https://docs.pingcap.com/tidb/stable/release-6.5.0) 升级为 [v6.5.1](https://docs.pingcap.com/tidb/stable/release-6.5.1)。 +- 新建 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的默认 TiDB 版本由 [v6.5.0](https://docs.pingcap.com/tidb/stable/release-6.5.0) 升级为 [v6.5.1](https://docs.pingcap.com/tidb/stable/release-6.5.1)。 -- 上传带表头的本地 CSV 文件到 TiDB Cloud 时,支持修改 TiDB Cloud 自动创建目标表的列名。 +- 上传带表头的本地 CSV 文件到 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群时,支持修改 TiDB Cloud 自动创建目标表的列名。 - 当你向 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 导入带表头的本地 CSV 文件,若需 TiDB Cloud 自动创建目标表,且表头列名不符合 TiDB Cloud 列命名规范,则对应列名旁会显示警告图标。你可将鼠标悬停在图标上,根据提示 edit 或输入新列名。 + 如果表头中的列名不符合 TiDB Cloud 列名规范,系统会在对应列名旁显示警告图标。你可将鼠标悬停在图标上,根据提示修改或输入新列名。 - 列命名规范参见 [导入本地文件](/tidb-cloud/tidb-cloud-import-local-files.md#import-local-files)。 + 列名规范参见 [导入本地文件](/tidb-cloud/tidb-cloud-import-local-files.md#import-local-files)。 ## 2023 年 3 月 7 日 **通用变更** -- 所有 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 的默认 TiDB 版本由 [v6.4.0](https://docs.pingcap.com/tidb/stable/release-6.4.0) 升级为 [v6.6.0](https://docs.pingcap.com/tidb/stable/release-6.6.0)。 +- 所有 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群的默认 TiDB 版本由 [v6.4.0](https://docs.pingcap.com/tidb/stable/release-6.4.0) 升级为 [v6.6.0](https://docs.pingcap.com/tidb/stable/release-6.6.0)。 ## 2023 年 2 月 28 日 **通用变更** -- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 新增 [SQL Diagnosis](/tidb-cloud/tune-performance.md) 功能。 +- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群新增 [SQL Diagnosis](/tidb-cloud/tune-performance.md) 功能。 - 通过 SQL Diagnosis,你可深入了解 SQL 相关运行时状态,提升 SQL performance tuning 效率。目前 Serverless Tier 的 SQL Diagnosis 仅提供慢 query 数据。 + 通过 SQL Diagnosis,你可以深入了解 SQL 相关的运行时状态,提升 SQL 性能调优效率。目前 Serverless Tier 的 SQL Diagnosis 仅提供慢 query 数据。 - 使用方法:在 Serverless Tier cluster 页面左侧导航栏点击 **SQL Diagnosis**。 + 使用方法:在 Serverless Tier 集群页面左侧导航栏点击 **SQL Diagnosis**。 **控制台变更** - 优化左侧导航。 - 你可更高效地导航页面,例如: + 你可以更高效地导航页面,例如: - - 鼠标悬停左上角可快速切换 cluster 或项目。 + - 鼠标悬停左上角可快速切换集群或项目。 - 可在 **Clusters** 和 **Admin** 页面间切换。 **API 变更** -- 发布多组 TiDB Cloud API endpoint 用于数据导入: +- 发布多组 TiDB Cloud API 端点用于数据导入: - 列出所有导入任务 - 获取导入任务 - 创建导入任务 - 更新导入任务 - 上传本地文件到导入任务 - - 导入任务开始前预览数据 + - 启动导入任务前预览数据 - 获取导入任务的角色信息 详情参见 [API 文档](https://docs.pingcap.com/tidbcloud/api/v1beta#tag/Import)。 @@ -849,11 +849,11 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -- 支持使用 [控制台审计日志](/tidb-cloud/tidb-cloud-console-auditing.md) 功能,追踪 organization 成员在 [TiDB Cloud 控制台](https://tidbcloud.com/) 的各类操作。 +- 支持使用 [控制台审计日志](/tidb-cloud/tidb-cloud-console-auditing.md) 跟踪组织成员在 [TiDB Cloud 控制台](https://tidbcloud.com/) 的各类操作。 - 控制台审计日志仅对 `Owner` 或 `Audit Admin` 角色可见,默认关闭。启用方法:在 [TiDB Cloud 控制台](https://tidbcloud.com/) 右上角点击 **Organization** > **Console Audit Logging**。 + 控制台审计日志仅对 `Owner` 或 `Audit Admin` 角色可见,默认关闭。开启方法:在 [TiDB Cloud 控制台](https://tidbcloud.com/) 右上角点击 **Organization** > **Console Audit Logging**。 - 通过分析审计日志,你可识别组织内的可疑操作,提升资源和数据安全性。 + 通过分析审计日志,你可以识别组织内的可疑操作,提升资源和数据安全性。 详情参见 [控制台审计日志](/tidb-cloud/tidb-cloud-console-auditing.md)。 @@ -861,28 +861,28 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - [TiDB Cloud CLI](/tidb-cloud/cli-reference.md) 新增 `ticloud cluster connect-info` 命令。 - `ticloud cluster connect-info` 可获取 cluster 的连接字符串。使用该命令需将 [ticloud 升级](/tidb-cloud/ticloud-upgrade.md) 至 v0.3.2 或更高版本。 + `ticloud cluster connect-info` 可获取集群连接字符串。使用该命令需将 [ticloud 升级](/tidb-cloud/ticloud-upgrade.md) 至 v0.3.2 或更高版本。 ## 2023 年 2 月 21 日 **通用变更** -- 支持使用 IAM 用户的 AWS access key 访问 Amazon S3 bucket 进行数据导入。 +- 数据导入到 TiDB Cloud 时,支持使用 IAM 用户的 AWS access key 访问 Amazon S3 bucket。 该方式比使用 Role ARN 更简单。详情参见 [配置 Amazon S3 访问](/tidb-cloud/dedicated-external-storage.md#configure-amazon-s3-access)。 -- 监控 [指标保留时间](/tidb-cloud/built-in-monitoring.md#metrics-retention-policy) 从 2 天延长: +- [监控指标保留时间](/tidb-cloud/built-in-monitoring.md#metrics-retention-policy) 从 2 天延长: - - Dedicated Tier cluster 可查看过去 7 天的指标数据。 - - Serverless Tier cluster 可查看过去 3 天的指标数据。 + - Dedicated Tier 集群可查看过去 7 天的指标数据。 + - Serverless Tier 集群可查看过去 3 天的指标数据。 - 保留时间延长后,你可访问更多历史数据,有助于识别 cluster 趋势和模式,提升决策和故障排查效率。 + 保留时间延长后,你可访问更多历史数据,有助于识别集群趋势和模式,提升决策和故障排查效率。 **控制台变更** -- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 的 Monitoring 页面发布全新原生 Web 架构。 +- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群的 Monitoring 页面发布全新原生 Web 架构。 - 新架构让你更便捷地浏览 Monitoring 页面,获取所需信息,提升交互体验,优化监控流程。 + 新架构让你更便捷地浏览 Monitoring 页面,提升监控体验。 ## 2023 年 2 月 17 日 @@ -890,21 +890,21 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 - [TiDB Cloud CLI](/tidb-cloud/cli-reference.md) 新增 [`ticloud connect`](/tidb-cloud/ticloud-serverless-shell.md) 命令。 - `ticloud connect` 支持你无需安装 SQL client,即可从本地连接 TiDB Cloud cluster,并在 CLI 中执行 SQL statement。 + `ticloud connect` 允许你无需安装 SQL client,即可从本地连接 TiDB Cloud 集群,并在 CLI 中执行 SQL statement。 ## 2023 年 2 月 14 日 **通用变更** -- 支持缩减 TiKV 和 TiFlash 节点数量,实现 TiDB [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的扩缩容。 +- 支持缩减 TiKV、TiFlash 节点数量,实现 TiDB [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的缩容。 - 你可通过 [TiDB Cloud 控制台](/tidb-cloud/scale-tidb-cluster.md#change-node-number) 或 [TiDB Cloud API (beta)](https://docs.pingcap.com/tidbcloud/api/v1beta#tag/Cluster/operation/UpdateCluster) 缩减节点数量。 + 你可以通过 [TiDB Cloud 控制台](/tidb-cloud/scale-tidb-cluster.md#change-node-number) 或 [TiDB Cloud API (beta)](https://docs.pingcap.com/tidbcloud/api/v1beta#tag/Cluster/operation/UpdateCluster) 缩减节点数量。 **控制台变更** -- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 新增 **Monitoring** 页面。 +- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群新增 **Monitoring** 页面。 - **Monitoring** 页面提供多项指标和数据,如每秒 SQL statement 数、平均 query 时长、失败 query 数,助你全面了解 Serverless Tier cluster 的 SQL statement performance。 + **Monitoring** 页面提供多项指标和数据,如每秒 SQL statement 数、平均 query 时长、失败 query 数,帮助你全面了解 Serverless Tier 集群 SQL statement 的整体性能。 详情参见 [TiDB Cloud 内置监控](/tidb-cloud/built-in-monitoring.md)。 @@ -912,9 +912,9 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **CLI 变更** -- 发布 TiDB Cloud CLI client [`ticloud`](/tidb-cloud/cli-reference.md)。 +- 推出 TiDB Cloud CLI 客户端 [`ticloud`](/tidb-cloud/cli-reference.md)。 - 使用 `ticloud`,你可通过终端或自动化流程便捷管理 TiDB Cloud 资源。针对 GitHub Actions,我们提供了 [`setup-tidbcloud-cli`](https://github.com/marketplace/actions/set-up-tidbcloud-cli),便于快速配置 `ticloud`。 + 使用 `ticloud`,你可以通过终端或自动化流程轻松管理 TiDB Cloud 资源。针对 GitHub Actions,我们提供了 [`setup-tidbcloud-cli`](https://github.com/marketplace/actions/set-up-tidbcloud-cli),便于快速设置 `ticloud`。 详情参见 [TiDB Cloud CLI 快速入门](/tidb-cloud/get-started-with-cli.md) 及 [TiDB Cloud CLI 参考](/tidb-cloud/cli-reference.md)。 @@ -922,80 +922,80 @@ summary: 了解 2023 年 TiDB Cloud 的发布说明。 **通用变更** -* 支持使用 Microsoft account [注册](https://tidbcloud.com/free-trial) TiDB Cloud。 +* 支持使用 Microsoft 账号 [注册](https://tidbcloud.com/free-trial) TiDB Cloud。 ## 2023 年 1 月 17 日 **通用变更** -- 新建 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 的默认 TiDB 版本由 [v6.1.3](https://docs.pingcap.com/tidb/stable/release-6.1.3) 升级为 [v6.5.0](https://docs.pingcap.com/tidb/stable/release-6.5.0)。 +- 新建 [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群的默认 TiDB 版本由 [v6.1.3](https://docs.pingcap.com/tidb/stable/release-6.1.3) 升级为 [v6.5.0](https://docs.pingcap.com/tidb/stable/release-6.5.0)。 -- 新注册用户将自动创建一个免费的 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster,助你快速开启 TiDB Cloud 数据探索之旅。 +- 新注册用户将自动创建一个免费的 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群,便于你快速开启 TiDB Cloud 数据探索之旅。 -- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) cluster 新增支持 AWS 区域:`Seoul (ap-northeast-2)`。 +- [Dedicated Tier](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群支持新的 AWS region:`Seoul (ap-northeast-2)`。 该 region 支持以下功能: - [使用数据迁移迁移 MySQL 兼容数据库到 TiDB Cloud](/tidb-cloud/migrate-from-mysql-using-data-migration.md) - [通过 changefeed 将 TiDB Cloud 数据流式同步到其他数据服务](/tidb-cloud/changefeed-overview.md) - - [备份与恢复 TiDB cluster 数据](/tidb-cloud/backup-and-restore.md) + - [备份与恢复 TiDB 集群数据](/tidb-cloud/backup-and-restore.md) ## 2023 年 1 月 10 日 **通用变更** -- 优化本地 CSV 文件导入 TiDB 的功能,提升 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 的用户体验。 +- 优化本地 CSV 文件导入 TiDB 的功能,提升 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群的用户体验。 - - 你现在可直接拖拽 CSV 文件到 **Import** 页上传区域。 - - 创建导入任务时,若目标数据库或表不存在,可输入名称让 TiDB Cloud 自动创建。对于新建目标表,你可指定主键或选择多个字段组成复合主键。 + - 你现在可以直接拖拽 CSV 文件到 **Import** 页的上传区域。 + - 创建导入任务时,如目标数据库或表不存在,可输入名称让 TiDB Cloud 自动创建。对于新建目标表,你可指定主键或选择多个字段组成复合主键。 - 导入完成后,可点击 **Explore your data by Chat2Query** 或任务列表中的目标表名,使用 [AI 驱动的 Chat2Query](/tidb-cloud/explore-data-with-chat2query.md) 探索数据。 详情参见 [导入本地文件到 TiDB Cloud](/tidb-cloud/tidb-cloud-import-local-files.md)。 **控制台变更** -- 每个 cluster 新增 **Get Support** 选项,简化针对特定 cluster 的支持请求流程。 +- 每个集群新增 **Get Support** 选项,简化针对特定集群的支持请求流程。 - 你可通过以下任一方式请求支持: + 你可以通过以下任一方式请求集群支持: - - 在项目的 [**Clusters**](https://tidbcloud.com/project/clusters) 页面,点击 cluster 行的 **...** 并选择 **Get Support**。 - - 在 cluster 概览页右上角点击 **...** 并选择 **Get Support**。 + - 在项目的 [**Clusters**](https://tidbcloud.com/project/clusters) 页面,点击集群行的 **...**,选择 **Get Support**。 + - 在集群概览页右上角点击 **...**,选择 **Get Support**。 ## 2023 年 1 月 5 日 **控制台变更** -- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 的 SQL Editor(beta)更名为 Chat2Query(beta),并支持通过 AI 生成 SQL 查询。 +- [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群将 SQL Editor (beta) 重命名为 Chat2Query (beta),并支持通过 AI 生成 SQL query。 - 在 Chat2Query 中,你可让 AI 自动生成 SQL 查询,也可手动编写 SQL 查询,并直接对数据库执行,无需终端。 + 在 Chat2Query 中,你可以让 AI 自动生成 SQL query,也可手动编写 SQL query,并直接对数据库执行,无需终端。 - 访问方法:在项目的 [**Clusters**](https://tidbcloud.com/project/clusters) 页面点击 cluster 名称,再点击左侧导航栏的 **Chat2Query**。 + 访问方法:进入项目的 [**Clusters**](https://tidbcloud.com/project/clusters) 页面,点击集群名,再点击左侧导航栏的 **Chat2Query**。 ## 2023 年 1 月 4 日 **通用变更** -- 支持通过增加 **Node Size(vCPU + RAM)** 扩容 AWS 上新建(2022 年 12 月 31 日后)TiDB Cloud Dedicated cluster 的 TiDB、TiKV、TiFlash 节点。 +- 支持为 2022 年 12 月 31 日后在 AWS 上创建的 TiDB Cloud Dedicated 集群扩容 TiDB、TiKV、TiFlash 节点(提升 **Node Size(vCPU + RAM)**)。 - 你可通过 [TiDB Cloud 控制台](/tidb-cloud/scale-tidb-cluster.md#change-vcpu-and-ram) 或 [TiDB Cloud API (beta)](https://docs.pingcap.com/tidbcloud/api/v1beta#tag/Cluster/operation/UpdateCluster) 增加节点规格。 + 你可以通过 [TiDB Cloud 控制台](/tidb-cloud/scale-tidb-cluster.md#change-vcpu-and-ram) 或 [TiDB Cloud API (beta)](https://docs.pingcap.com/tidbcloud/api/v1beta#tag/Cluster/operation/UpdateCluster) 扩容节点规格。 - [**Monitoring**](/tidb-cloud/built-in-monitoring.md) 页的指标保留时间延长至两天。 - 你现在可访问最近两天的指标数据,更灵活地掌握 cluster performance 和趋势。 + 你现在可以访问最近两天的指标数据,更灵活地洞察集群性能和趋势。 - 该提升无需额外费用,可在 cluster 的 [**Monitoring**](/tidb-cloud/built-in-monitoring.md) 页的 **Diagnosis** 标签页访问,有助于更高效地定位和排查 performance 问题,监控 cluster 健康。 + 该提升无需额外费用,可在集群 [**Monitoring**](/tidb-cloud/built-in-monitoring.md) 页的 **Diagnosis** 标签下访问,有助于更高效地定位和排查性能问题,监控集群健康。 - 支持为 Prometheus 集成自定义 Grafana dashboard JSON。 - 已 [集成 Prometheus 的 TiDB Cloud](/tidb-cloud/monitor-prometheus-and-grafana-integration.md) cluster 现可导入预置 Grafana dashboard 并自定义,便于快速监控 TiDB Cloud cluster,及时发现 performance 问题。 + 已 [集成 Prometheus 的 TiDB Cloud](/tidb-cloud/monitor-prometheus-and-grafana-integration.md) 用户可导入预置 Grafana dashboard 并自定义,便于快速监控 TiDB Cloud 集群,及时发现性能问题。 详情参见 [使用 Grafana GUI dashboard 可视化指标](/tidb-cloud/monitor-prometheus-and-grafana-integration.md#step-3-use-grafana-gui-dashboards-to-visualize-the-metrics)。 -- 所有 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) cluster 的默认 TiDB 版本由 [v6.3.0](https://docs.pingcap.com/tidb/stable/release-6.3.0) 升级为 [v6.4.0](https://docs.pingcap.com/tidb/stable/release-6.4.0)。Serverless Tier cluster 升级到 v6.4.0 后的冷启动问题已修复。 +- 所有 [Serverless Tier](/tidb-cloud/select-cluster-tier.md#starter) 集群的默认 TiDB 版本由 [v6.3.0](https://docs.pingcap.com/tidb/stable/release-6.3.0) 升级为 [v6.4.0](https://docs.pingcap.com/tidb/stable/release-6.4.0)。Serverless Tier 集群升级到 v6.4.0 后的冷启动问题已修复。 **控制台变更** -- 简化 [**Clusters**](https://tidbcloud.com/project/clusters) 页面和 cluster 概览页的展示。 +- 简化 [**Clusters**](https://tidbcloud.com/project/clusters) 页面和集群概览页的展示。 - - 你可在 [**Clusters**](https://tidbcloud.com/project/clusters) 页面点击 cluster 名称进入 cluster 概览页并开始操作。 - - 从 cluster 概览页移除 **Connection** 和 **Import** 面板。你可点击右上角 **Connect** 获取连接信息,或点击左侧导航栏 **Import** 导入数据。 \ No newline at end of file + - 你可以在 [**Clusters**](https://tidbcloud.com/project/clusters) 页面点击集群名进入集群概览页,开始操作集群。 + - 从集群概览页移除 **Connection** 和 **Import** 面板。你可点击右上角 **Connect** 获取连接信息,点击左侧导航栏 **Import** 导入数据。 \ No newline at end of file diff --git a/tidb-cloud/releases/tidb-cloud-release-notes.md b/tidb-cloud/releases/tidb-cloud-release-notes.md index 02d938e4913b1..d49a374fdf6d6 100644 --- a/tidb-cloud/releases/tidb-cloud-release-notes.md +++ b/tidb-cloud/releases/tidb-cloud-release-notes.md @@ -1,7 +1,7 @@ --- title: 2026 年 TiDB Cloud 发布说明 summary: 了解 2026 年 TiDB Cloud 的发布说明。 -aliases: ['/tidbcloud/supported-tidb-versions','/tidbcloud/release-notes'] +aliases: ['/zh/tidbcloud/supported-tidb-versions','/zh/tidbcloud/release-notes'] --- # 2026 年 TiDB Cloud 发布说明 @@ -20,19 +20,19 @@ aliases: ['/tidbcloud/supported-tidb-versions','/tidbcloud/release-notes'] - 支持内置报警/告警。 - 内置报警/告警允许你通过电子邮件、Slack、Zoom、Flashduty 和 PagerDuty 订阅并接收即时报警/告警。你还可以通过为每种报警/告警类型定义特定阈值,来自定义报警/告警。 + 内置报警/告警功能允许你通过 email、Slack、Zoom、Flashduty 和 PagerDuty 订阅并接收即时报警/告警。你还可以通过为每种报警/告警类型定义特定阈值,来自定义报警/告警。 - 更多信息,参见 [TiDB Cloud 内置报警/告警](/tidb-cloud/monitor-built-in-alerting.md)。 + 更多信息,参见 [TiDB Cloud Built-in Alerting](https://docs.pingcap.com/tidbcloud/monitor-built-in-alerting/?plan=essential)。 - **TiDB Cloud Dedicated** - 支持通过 Private Link 从 Azure Blob Storage 导入数据。 - 当你将数据从 Azure Blob Storage 导入到 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群时,现在可以选择 Private Link 作为连接方式,通过 Azure 私有端点进行连接,而不是通过公网。该功能可为限制公网访问的存储账户实现安全、网络隔离的数据导入。 + 当你将数据从 Azure Blob Storage 导入到 [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 集群时,现在可以选择 Private Link 作为连接方式,通过 Azure 私有端点进行连接,而不是通过公网。该功能为限制公网访问的存储账户提供了安全、网络隔离的数据导入能力。 更多信息,参见 [从云存储导入示例数据(SQL 文件)](/tidb-cloud/import-sample-data.md)、[从云存储导入 CSV 文件](/tidb-cloud/import-csv-files.md) 和 [从云存储导入 Apache Parquet 文件](/tidb-cloud/import-parquet-files.md)。 - - 在 TiDB Cloud 的 Console 审计日志中新增“启用/禁用公网端点”事件,以提升安全追踪能力。 + - 在 TiDB Cloud 的 Console 审计日志中新增 “启用/禁用公网端点” 事件,以便更好地进行安全追踪。 ## 2026 年 2 月 3 日 @@ -42,7 +42,7 @@ aliases: ['/tidbcloud/supported-tidb-versions','/tidbcloud/release-notes'] - 支持将变更数据下沉到 Azure Blob Storage。 - [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 现在支持将变更数据直接下沉到 Azure Blob Storage。该功能使基于 Azure 的用户能够高效归档变更数据,用于下游分析和长期保存。同时,通过省去中间消息队列,降低了成本,并保持了与现有 Amazon S3 和 Google Cloud Storage (GCS) 下沉的格式兼容性。 + [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 现在支持将变更数据(changefeed)直接下沉到 Azure Blob Storage。该功能使基于 Azure 的用户能够高效归档变更数据,用于下游分析和长期保存。同时,通过省去中间消息队列,降低了成本,并保持了与现有 Amazon S3 和 Google Cloud Storage (GCS) 下沉格式的兼容性。 更多信息,参见 [下沉到云存储](/tidb-cloud/changefeed-sink-to-cloud-storage.md)。 @@ -52,10 +52,10 @@ aliases: ['/tidbcloud/supported-tidb-versions','/tidbcloud/release-notes'] - **TiDB Cloud Dedicated** - - 支持 Flashduty 和 PagerDuty 作为报警/告警订阅渠道。 - + - 支持将 Flashduty 和 PagerDuty 作为报警/告警订阅渠道。 + 这些集成旨在简化你的事件管理流程,并提升运维可靠性。 - + 更多信息,参见 [通过 Flashduty 订阅](/tidb-cloud/monitor-alert-flashduty.md) 和 [通过 PagerDuty 订阅](/tidb-cloud/monitor-alert-pagerduty.md)。 ## 2026 年 1 月 20 日 @@ -64,17 +64,17 @@ aliases: ['/tidbcloud/supported-tidb-versions','/tidbcloud/release-notes'] - **TiDB Cloud Starter** - - 在 [慢查询](/tidb-cloud/tune-performance.md#slow-query) 视图和 [`INFORMATION_SCHEMA.PROCESSLIST`](/information-schema/information-schema-processlist.md) 表中显示真实客户端 IP 地址(测试版)。 + - 在 [慢查询](/tidb-cloud/tune-performance.md#slow-query) 视图和 [`INFORMATION_SCHEMA.PROCESSLIST`](/information-schema/information-schema-processlist.md) 表中显示真实 client IP 地址(beta)。 - TiDB Cloud 现已支持客户端 IP 透传,使慢查询视图和 `INFORMATION_SCHEMA.PROCESSLIST` 表能够显示真实客户端 IP 地址,而不是负载均衡器(LB)IP。该功能有助于更准确地识别数据库请求的真实来源,便于排查和分析。 + TiDB Cloud 现已支持 client IP 透传,使慢查询视图和 `INFORMATION_SCHEMA.PROCESSLIST` 表能够显示真实的 client IP 地址,而不是负载均衡器(LB)IP。该功能有助于更准确地识别数据库请求的真实来源,便于排查和分析。 - 目前,该功能为测试版,仅在 AWS 区域 `Frankfurt (eu-central-1)` 提供。 + 目前该功能为 beta,仅在 AWS 区域 `Frankfurt (eu-central-1)` 提供。 - **TiDB Cloud Essential** - - 支持数据迁移(测试版)。 + - 支持数据迁移(beta)。 - 你现在可以在 [TiDB Cloud 控制台](https://tidbcloud.com) 使用数据迁移功能,将数据从任意 MySQL 兼容数据库无缝迁移到你的 [TiDB Cloud Essential](/tidb-cloud/select-cluster-tier.md#essential) 集群。 + 你现在可以在 [TiDB Cloud 控制台](https://tidbcloud.com) 使用数据迁移功能,将任意 MySQL 兼容数据库的数据无缝迁移到你的 [TiDB Cloud Essential](/tidb-cloud/select-cluster-tier.md#essential) 集群。 - 支持的源数据库包括多种 MySQL 兼容系统,如自建 MySQL、Amazon RDS、阿里云 RDS 和 PolarDB。 - 数据迁移支持的连接方式包括公网连接和 PrivateLink,兼顾易用性和企业级安全: @@ -83,25 +83,25 @@ aliases: ['/tidbcloud/supported-tidb-versions','/tidbcloud/release-notes'] - **PrivateLink**:在你的源 VPC 与 TiDB Cloud 之间建立安全私有连接,绕过公网,确保数据隐私和降低网络延时。 目前,数据迁移功能仅支持逻辑模式。 - + 更多信息,参见 [使用数据迁移迁移现有及增量数据](/tidb-cloud/migrate-from-mysql-using-data-migration.md) 和 [使用数据迁移迁移增量数据](/tidb-cloud/migrate-incremental-data-from-mysql-using-data-migration.md)。 - - 在 [慢查询](/tidb-cloud/tune-performance.md#slow-query) 视图、[数据库审计日志](/tidb-cloud/essential-database-audit-logging.md) 和 [`INFORMATION_SCHEMA.PROCESSLIST`](/information-schema/information-schema-processlist.md) 表中显示真实客户端 IP 地址(测试版) + - 在 [慢查询](/tidb-cloud/tune-performance.md#slow-query) 视图、[数据库审计日志](/tidb-cloud/essential-database-audit-logging.md) 和 [`INFORMATION_SCHEMA.PROCESSLIST`](/information-schema/information-schema-processlist.md) 表中显示真实 client IP 地址(beta) - TiDB Cloud 现已支持客户端 IP 透传,使慢查询视图、数据库审计日志和 `INFORMATION_SCHEMA.PROCESSLIST` 表能够显示真实客户端 IP 地址,而不是负载均衡器(LB)IP。该功能有助于更准确地识别数据库请求的真实来源,便于排查和分析。 + TiDB Cloud 现已支持 client IP 透传,使慢查询视图、数据库审计日志和 `INFORMATION_SCHEMA.PROCESSLIST` 表能够显示真实的 client IP 地址,而不是负载均衡器(LB)IP。该功能有助于更准确地识别数据库请求的真实来源,便于排查和分析。 - 目前,该功能为测试版,仅在 AWS 区域 `Frankfurt (eu-central-1)` 提供。 + 目前该功能为 beta,仅在 AWS 区域 `Frankfurt (eu-central-1)` 提供。 **控制台变更** -- 通过计划感知型支持选项,提升支持体验。 +- 通过与订阅计划关联的支持选项,提升支持体验。 - [TiDB Cloud 控制台](https://tidbcloud.com/) 现已提供计划感知型支持选项,提升所有订阅计划下的支持体验。此次更新包括: + [TiDB Cloud 控制台](https://tidbcloud.com/) 现已提供与订阅计划关联的支持选项,提升了所有订阅计划下的支持体验。此次更新包括: - - **计划感知型支持跳转**:在集群概览页面,点击 **Get Support** 按钮(在 **Actions** 列),会根据你的订阅计划跳转到最相关的资源。Basic 计划用户会被引导至 **Support Plan** 面板,付费计划用户则跳转至 **Support Portal**。 + - **与计划关联的支持跳转**:在集群概览页面,点击 **Get Support** 按钮(在 **Actions** 列)会根据你的订阅计划跳转到最相关的资源。Basic 计划用户会被引导至 **Support Plan** 面板,付费计划用户则跳转到 **Support Portal**。 - **优化的帮助中心菜单**:将帮助菜单项重命名为 **Support Options** 和 **Support Tickets**,更准确地反映可用服务。新增提示,说明技术支持工单仅对付费计划开放。 - **清晰的社区支持入口**:在 **Support Plan** 选项中,Slack 和 Discord 被明确标识为 Basic 计划用户的主要技术支持渠道。以下文档已优化,进一步明确支持渠道政策和社区访问方式:[TiDB Cloud Support](/tidb-cloud/tidb-cloud-support.md)、[Connected Care Overview](/tidb-cloud/connected-care-overview.md) 和 [Connected Care Details](/tidb-cloud/connected-care-detail.md)。 - - **以操作为导向的 Support Plan UI**:重新设计 **Support Plan** 窗口,优先展示你当前订阅计划下可用的支持选项,而非通用计划对比。此更改有助于你快速识别基于当前计划的支持获取方式。 + - **以操作为导向的 Support Plan UI**:重新设计 **Support Plan** 窗口,优先展示你当前订阅计划下可用的支持选项,而非通用计划对比。此更改有助于你快速识别基于当前计划的支持方式。 更多信息,参见 [TiDB Cloud Support](/tidb-cloud/tidb-cloud-support.md)。 diff --git a/tiflash/tiflash-overview.md b/tiflash/tiflash-overview.md index 6571781a35f21..dc04a074a2bcb 100644 --- a/tiflash/tiflash-overview.md +++ b/tiflash/tiflash-overview.md @@ -5,13 +5,13 @@ summary: 了解 TiFlash 的架构和关键特性。 # TiFlash 概述 -[TiFlash](https://github.com/pingcap/tiflash) 是使 TiDB 成为混合事务/分析处理(HTAP)数据库的关键组件。作为 TiKV 的列式存储扩展,TiFlash 同时提供了良好的隔离级别和强一致性保证。 +[TiFlash](https://github.com/pingcap/tiflash) 是使 TiDB 成为混合事务/分析处理(HTAP)数据库的关键组件。作为 TiKV 的列式存储扩展,TiFlash 同时提供良好的隔离级别和强一致性保证。 -在 TiFlash 中,列式副本是根据 Raft Learner 共识算法进行异步复制的。当读取这些副本时,通过校验 Raft 索引和多版本并发控制(MVCC),实现了快照隔离级别的一致性。 +在 TiFlash 中,列式副本根据 Raft Learner 一致性算法进行异步复制。当这些副本被读取时,通过校验 Raft 索引和多版本并发控制(MVCC),实现了快照隔离级别的一致性。 -通过 TiDB Cloud,你可以根据 HTAP 工作负载轻松创建包含一个或多个 TiFlash 节点的 HTAP 集群。如果在创建集群时未指定 TiFlash 节点数量,或者你想要添加更多 TiFlash 节点,可以通过[扩容集群](/tidb-cloud/scale-tidb-cluster.md)来更改节点数量。 +通过 TiDB Cloud,你可以根据 HTAP 工作负载轻松创建 HTAP 集群,只需指定一个或多个 TiFlash 节点。如果在创建集群时未指定 TiFlash 节点数量,或你想添加更多 TiFlash 节点,可以通过[扩展集群](/tidb-cloud/scale-tidb-cluster.md)来更改节点数量。 @@ -19,31 +19,31 @@ summary: 了解 TiFlash 的架构和关键特性。 ![TiFlash Architecture](/media/tidb-storage-architecture-1.png) -上图展示了包含 TiFlash 节点的 HTAP 形态下的 TiDB 架构。 +上图展示了 TiDB 在 HTAP 形态下的架构,包括 TiFlash 节点。 -TiFlash 提供列式存储,并通过 ClickHouse 高效实现了一层协处理器。与 TiKV 类似,TiFlash 也拥有 Multi-Raft 系统,支持以 Region 为单位进行数据复制和分布(详见 [数据存储](https://www.pingcap.com/blog/tidb-internal-data-storage/))。 +TiFlash 提供列式存储,并通过 ClickHouse 高效实现了一层 Coprocessor。与 TiKV 类似,TiFlash 也拥有 Multi-Raft 系统,支持以 Region 为单位进行数据复制和分布(详见 [数据存储](https://www.pingcap.com/blog/tidb-internal-data-storage/))。 -TiFlash 能以低成本实时复制 TiKV 节点中的数据,不会阻塞 TiKV 的写入操作。同时,TiFlash 提供与 TiKV 相同的读取一致性,并确保读取到最新数据。TiFlash 中的 Region 副本在逻辑上与 TiKV 中的副本完全一致,并会与 TiKV 的 Leader 副本同时进行分裂和合并。 +TiFlash 能以低成本实时复制 TiKV 节点中的数据,不会阻塞 TiKV 的写入。同时,TiFlash 提供与 TiKV 相同的读取一致性,并确保读取到最新数据。TiFlash 中的 Region 副本在逻辑上与 TiKV 中的副本完全一致,并会与 TiKV 中的 Leader 副本同时进行切分和合并。 -在 Linux AMD64 架构上部署 TiFlash 时,CPU 必须支持 AVX2 指令集。你可以通过 `grep avx2 /proc/cpuinfo` 是否有输出进行验证。对于 Linux ARM64 架构,CPU 必须支持 ARMv8 指令集架构。你可以通过 `grep 'crc32' /proc/cpuinfo | grep 'asimd'` 是否有输出进行验证。使用这些指令集扩展可以让 TiFlash 的向量化引擎获得更好的性能。 +在 Linux AMD64 架构上部署 TiFlash 时,CPU 必须支持 AVX2 指令集。你可以通过 `grep avx2 /proc/cpuinfo` 有输出结果来验证。对于 Linux ARM64 架构,CPU 必须支持 ARMv8 指令集架构。你可以通过 `grep 'crc32' /proc/cpuinfo | grep 'asimd'` 有输出结果来验证。使用这些指令集扩展可以让 TiFlash 的向量化引擎获得更好的性能。 -TiFlash 同时兼容 TiDB 和 TiSpark,这使你可以自由选择这两种计算引擎。 +TiFlash 与 TiDB 兼容。你可以将 TiDB 作为 TiFlash 的计算引擎。 -建议将 TiFlash 部署在与 TiKV 不同的节点上,以保证负载隔离。如果没有业务隔离需求,也可以将 TiFlash 和 TiKV 部署在同一节点。 +建议将 TiFlash 部署在与 TiKV 不同的节点上,以确保工作负载隔离。如果没有业务隔离需求,也可以将 TiFlash 和 TiKV 部署在同一节点。 -目前,数据不能直接写入 TiFlash。你需要先将数据写入 TiKV,然后再复制到 TiFlash,因为 TiFlash 以 Learner 角色接入 TiDB 集群。TiFlash 支持以表为单位进行数据复制,但部署后默认不会复制任何数据。要复制指定表的数据,请参见 [为表创建 TiFlash 副本](/tiflash/create-tiflash-replicas.md#create-tiflash-replicas-for-tables)。 +目前,数据不能直接写入 TiFlash。你需要先将数据写入 TiKV,然后再复制到 TiFlash,因为 TiFlash 以 Learner 角色连接到 TiDB 集群。TiFlash 支持以表为单位进行数据复制,但部署后默认不会复制任何数据。要复制指定表的数据,请参见 [为表创建 TiFlash 副本](/tiflash/create-tiflash-replicas.md#create-tiflash-replicas-for-tables)。 -TiFlash 主要由两部分组成:列式存储组件和 TiFlash proxy 组件。TiFlash proxy 组件负责 Multi-Raft 共识算法的通信。 +TiFlash 主要由两部分组成:列式存储组件和 TiFlash proxy 组件。TiFlash proxy 组件负责使用 Multi-Raft 一致性算法进行通信。 当 TiFlash 收到为某张表创建副本的 DDL 命令后,TiDB 会自动在 PD 中创建相应的 [placement rules](https://docs.pingcap.com/tidb/stable/configure-placement-rules),然后 PD 会根据这些规则进行相应的数据调度。 ## 关键特性 -TiFlash 具备以下关键特性: +TiFlash 具有以下关键特性: - [异步复制](#asynchronous-replication) - [一致性](#consistency) @@ -52,7 +52,7 @@ TiFlash 具备以下关键特性: ### 异步复制 -TiFlash 中的副本以 Raft Learner 这一特殊角色进行异步复制。这意味着当 TiFlash 节点宕机或出现高网络延迟时,TiKV 中的应用仍可正常运行。 +TiFlash 中的副本以 Raft Learner 这一特殊角色进行异步复制。这意味着当 TiFlash 节点宕机或出现高网络延时时,TiKV 中的应用仍可正常进行。 这种复制机制继承了 TiKV 的两个优点:自动负载均衡和高可用性。 @@ -61,19 +61,19 @@ TiFlash 中的副本以 Raft Learner 这一特殊角色进行异步复制。这 ### 一致性 -TiFlash 提供与 TiKV 相同的快照隔离级别一致性,并确保读取到最新数据,这意味着你可以读取之前写入 TiKV 的数据。这种一致性通过校验数据复制进度来实现。 +TiFlash 提供与 TiKV 相同的快照隔离级别一致性,并确保读取到最新数据,这意味着你可以读取之前写入 TiKV 的数据。此类一致性通过校验数据复制进度实现。 -每当 TiFlash 收到读取请求时,Region 副本会向 Leader 副本发送进度校验请求(轻量级的 RPC 请求)。只有当当前复制进度包含了读取请求时间戳所覆盖的数据后,TiFlash 才会执行读取操作。 +每当 TiFlash 收到读取请求时,Region 副本会向 Leader 副本发送进度校验请求(轻量级 RPC 请求)。只有当当前复制进度包含了读取请求时间戳所覆盖的数据后,TiFlash 才会执行读取操作。 ### 智能选择 -TiDB 可以自动选择使用 TiFlash(列存)或 TiKV(行存),也可以在同一个查询中同时使用两者,以确保最佳性能。 +TiDB 可以自动选择使用 TiFlash(列存)或 TiKV(行存),或在一次查询中同时使用两者,以确保最佳性能。 这种选择机制类似于 TiDB 选择不同索引来执行查询。TiDB 优化器会根据读取成本的统计信息做出合适的选择。 ### 计算加速 -TiFlash 通过两种方式加速 TiDB 的计算: +TiFlash 以两种方式加速 TiDB 的计算: - 列式存储引擎在执行读取操作时更高效。 - TiFlash 分担了 TiDB 的部分计算负载。 @@ -84,27 +84,10 @@ TiFlash 分担计算负载的方式与 TiKV Coprocessor 相同:TiDB 会将可 TiFlash 部署完成后,数据复制不会自动开始。你需要手动指定需要复制的表。 - - -你可以根据自身需求,使用 TiDB 读取 TiFlash 副本以进行中等规模的分析处理,或使用 TiSpark 读取 TiFlash 副本以进行大规模分析处理。详见以下章节: - - - - - -你可以使用 TiDB 读取 TiFlash 副本以进行分析处理。详见以下章节: - - +你可以使用 TiDB 读取 TiFlash 副本。详细操作请参见以下章节: - [创建 TiFlash 副本](/tiflash/create-tiflash-replicas.md) - [使用 TiDB 读取 TiFlash 副本](/tiflash/use-tidb-to-read-tiflash.md) - - - -- [使用 TiSpark 读取 TiFlash 副本](/tiflash/use-tispark-to-read-tiflash.md) - - - - [使用 MPP 模式](/tiflash/use-tiflash-mpp-mode.md) @@ -120,8 +103,8 @@ TiFlash 部署完成后,数据复制不会自动开始。你需要手动指定 - 如需部署包含 TiFlash 节点的新集群,请参见 [使用 TiUP 部署 TiDB 集群](/production-deployment-using-tiup.md)。 - 如需在已部署集群中添加 TiFlash 节点,请参见 [扩容 TiFlash 集群](/scale-tidb-using-tiup.md#scale-out-a-tiflash-cluster)。 - [维护 TiFlash 集群](/tiflash/maintain-tiflash.md)。 -- [TiFlash 性能调优](/tiflash/tune-tiflash-performance.md)。 -- [TiFlash 配置](/tiflash/tiflash-configuration.md)。 +- [调优 TiFlash 性能](/tiflash/tune-tiflash-performance.md)。 +- [配置 TiFlash](/tiflash/tiflash-configuration.md)。 - [监控 TiFlash 集群](/tiflash/monitor-tiflash.md)。 - 了解 [TiFlash 告警规则](/tiflash/tiflash-alert-rules.md)。 - [排查 TiFlash 集群问题](/tiflash/troubleshoot-tiflash.md)。 @@ -133,7 +116,7 @@ TiFlash 部署完成后,数据复制不会自动开始。你需要手动指定 -- [TiFlash 性能调优](/tiflash/tune-tiflash-performance.md)。 +- [调优 TiFlash 性能](/tiflash/tune-tiflash-performance.md)。 - [TiFlash 支持的下推计算](/tiflash/tiflash-supported-pushdown-calculations.md) - [TiFlash 兼容性](/tiflash/tiflash-compatibility.md) diff --git a/tiflash/use-tispark-to-read-tiflash.md b/tiflash/use-tispark-to-read-tiflash.md deleted file mode 100644 index ac21b17d585f9..0000000000000 --- a/tiflash/use-tispark-to-read-tiflash.md +++ /dev/null @@ -1,28 +0,0 @@ ---- -title: Use TiSpark to Read TiFlash Replicas -summary: Learn how to use TiSpark to read TiFlash replicas. ---- - -# Use TiSpark to Read TiFlash Replicas - -This document introduces how to use TiSpark to read TiFlash replicas. - -Currently, you can use TiSpark to read TiFlash replicas in a method similar to the engine isolation in TiDB. This method is to configure the `spark.tispark.isolation_read_engines` parameter. The parameter value defaults to `tikv,tiflash`, which means that TiDB reads data from TiFlash or from TiKV according to CBO's selection. If you set the parameter value to `tiflash`, it means that TiDB forcibly reads data from TiFlash. - -> **Note:** -> -> When this parameter is set to `tiflash`, only the TiFlash replicas of all tables involved in the query are read and these tables must have TiFlash replicas; for tables that do not have TiFlash replicas, an error is reported. When this parameter is set to `tikv`, only the TiKV replica is read. - -You can configure this parameter in one of the following ways: - -* Add the following item in the `spark-defaults.conf` file: - - ``` - spark.tispark.isolation_read_engines tiflash - ``` - -* Add `--conf spark.tispark.isolation_read_engines=tiflash` in the initialization command when initializing Spark shell or Thrift server. - -* Set `spark.conf.set("spark.tispark.isolation_read_engines", "tiflash")` in Spark shell in a real-time manner. - -* Set `set spark.tispark.isolation_read_engines=tiflash` in Thrift server after the server is connected via beeline. diff --git a/tispark-deployment-topology.md b/tispark-deployment-topology.md deleted file mode 100644 index cc79d3f4087ff..0000000000000 --- a/tispark-deployment-topology.md +++ /dev/null @@ -1,50 +0,0 @@ ---- -title: TiSpark Deployment Topology -summary: Learn the deployment topology of TiSpark using TiUP based on the minimal TiDB topology. ---- - -# TiSpark Deployment Topology - -> **Warning:** -> -> TiSpark support in the TiUP cluster is deprecated. It is **NOT** recommended to use it. - -This document introduces the TiSpark deployment topology and how to deploy TiSpark based on the minimum cluster topology. - -TiSpark is a component built for running Apache Spark on top of TiDB/TiKV to answer complex OLAP queries. It brings benefits of both the Spark platform and the distributed TiKV cluster to TiDB and makes TiDB a one-stop solution for both online transactions and analytics. - -For more information about the TiSpark architecture and how to use it, see [TiSpark User Guide](/tispark-overview.md). - -## Topology information - -| Instance | Count | Physical machine configuration | IP | Configuration | -| :-- | :-- | :-- | :-- | :-- | -| TiDB | 3 | 16 VCore 32GB * 1 | 10.0.1.1
10.0.1.2
10.0.1.3 | Default port
Global directory configuration | -| PD | 3 | 4 VCore 8GB * 1 |10.0.1.4
10.0.1.5
10.0.1.6 | Default port
Global directory configuration | -| TiKV | 3 | 16 VCore 32GB 2TB (nvme ssd) * 1 | 10.0.1.7
10.0.1.8
10.0.1.9 | Default port
Global directory configuration | -| TiSpark | 3 | 8 VCore 16GB * 1 | 10.0.1.21 (master)
10.0.1.22 (worker)
10.0.1.23 (worker) | Default port
Global directory configuration | -| Monitoring & Grafana | 1 | 4 VCore 8GB * 1 500GB (ssd) | 10.0.1.11 | Default port
Global directory configuration | - -> **Note:** -> -> The IP addresses of the instances are given as examples only. In your actual deployment, replace the IP addresses with your actual IP addresses. - -## Topology templates - -- [Simple TiSpark topology template](https://github.com/pingcap/docs/blob/master/config-templates/simple-tispark.yaml) -- [Complex TiSpark topology template](https://github.com/pingcap/docs/blob/master/config-templates/complex-tispark.yaml) - -For detailed descriptions of the configuration items in the above TiDB cluster topology file, see [Topology Configuration File for Deploying TiDB Using TiUP](/tiup/tiup-cluster-topology-reference.md). - -> **Note:** -> -> - You do not need to manually create the `tidb` user in the configuration file. The TiUP cluster component automatically creates the `tidb` user on the target machines. You can customize the user, or keep the user consistent with the control machine. -> - If you configure the deployment directory as a relative path, the cluster will be deployed in the home directory of the user. - -## Prerequisites - -TiSpark is based on the Apache Spark cluster, so before you start the TiDB cluster that contains TiSpark, you must ensure that Java Runtime Environment (JRE) 8 is installed on the server that deploys TiSpark. Otherwise, TiSpark cannot be started. - -TiUP does not support installing JRE automatically. You need to install it on your own. For detailed installation instruction, see [How to download and install prebuilt OpenJDK packages](https://openjdk.java.net/install/). - -If JRE 8 has already been installed on the deployment server but is not in the path of the system's default package management tool, you can specify the path of the JRE environment to be used by setting the `java_home` parameter in the topology configuration. This parameter corresponds to the `JAVA_HOME` system environment variable. diff --git a/tispark-overview.md b/tispark-overview.md deleted file mode 100644 index 5c76591110413..0000000000000 --- a/tispark-overview.md +++ /dev/null @@ -1,483 +0,0 @@ ---- -title: TiSpark User Guide -summary: Use TiSpark to provide an HTAP solution to serve as a one-stop solution for both online transactions and analysis. ---- - -# TiSpark User Guide - -![TiSpark architecture](/media/tispark-architecture.png) - -## TiSpark vs TiFlash - -[TiSpark](https://github.com/pingcap/tispark) is a thin layer built for running Apache Spark on top of TiDB/TiKV to answer the complex OLAP queries. It takes advantages of both the Spark platform and the distributed TiKV cluster and seamlessly glues to TiDB, the distributed OLTP database, to provide a Hybrid Transactional/Analytical Processing (HTAP) solution to serve as a one-stop solution for both online transactions and analysis. - -[TiFlash](/tiflash/tiflash-overview.md) is another tool that enables HTAP. Both TiFlash and TiSpark allow the use of multiple hosts to execute OLAP queries on OLTP data. TiFlash stores data in a columnar format, which allows more efficient analytical queries. TiFlash and TiSpark can be used together. - -## What is TiSpark - -TiSpark depends on the TiKV cluster and the PD cluster. You also need to set up a Spark cluster. This document provides a brief introduction to how to setup and use TiSpark. It requires some basic knowledge of Apache Spark. For more information, see [Apache Spark website](https://spark.apache.org/docs/latest/index.html). - -Deeply integrating with Spark Catalyst Engine, TiSpark provides precise control on computing. This allows Spark to read data from TiKV efficiently. TiSpark also supports index seek, which enables high-speed point query. TiSpark accelerates data queries by pushing computing to TiKV so as to reduce the volume of data to be processed by Spark SQL. Meanwhile, TiSpark can use TiDB built-in statistics to select the best query plan. - -With TiSpark and TiDB, you can run both transaction and analysis tasks on the same platform without building and maintaining ETLs. This simplifies the system architecture and reduces the cost of maintenance. - -You can use tools of the Spark ecosystem for data processing on TiDB: - -- TiSpark: Data analysis and ETLs -- TiKV: Data retrieval -- Scheduling system: Report generation - -Also, TiSpark supports distributed writes to TiKV. Compared with writes to TiDB by using Spark and JDBC, distributed writes to TiKV can implement transactions (either all data are written successfully or all writes fail), and the writes are faster. - -> **Warning:** -> -> Because TiSpark accesses TiKV directly, the access control mechanisms used by TiDB Server are not applicable to TiSpark. Since TiSpark v2.5.0, TiSpark supports user authentication and authorization, for more information, see [Security](/tispark-overview.md#security). - -## Requirements - -+ TiSpark supports Spark >= 2.3. -+ TiSpark requires JDK 1.8 and Scala 2.11/2.12. -+ TiSpark runs in any Spark mode such as `YARN`, `Mesos`, and `Standalone`. - -## Recommended deployment configurations of Spark - -> **Warning:** -> -> Deploying TiSpark using TiUP as described in this [doc](/tispark-deployment-topology.md) has been deprecated. - -Since TiSpark is a TiDB connector of Spark, to use it, a running Spark cluster is required. - -This document provides basic advice on deploying Spark. Please turn to the [Spark official website](https://spark.apache.org/docs/latest/hardware-provisioning.html) for detailed hardware recommendations. - -For independent deployment of Spark cluster: - -+ It is recommended to allocate 32 GB memory for Spark. Reserve at least 25% of the memory for the operating system and the buffer cache. -+ It is recommended to provision at least 8 to 16 cores per machine for Spark. First, you must assign all the CPU cores to Spark. - -The following is an example based on the `spark-env.sh` configuration: - -``` -SPARK_EXECUTOR_MEMORY = 32g -SPARK_WORKER_MEMORY = 32g -SPARK_WORKER_CORES = 8 -``` - -## Get TiSpark - -TiSpark is a third-party jar package for Spark that provides the ability to read and write TiKV. - -### Get mysql-connector-j - -The `mysql-connector-java` dependency is no longer provided because of the limit of the GPL license. - -The following versions of TiSpark's jar will no longer include `mysql-connector-java`. - -- TiSpark > 3.0.1 -- TiSpark > 2.5.1 for TiSpark 2.5.x -- TiSpark > 2.4.3 for TiSpark 2.4.x - -However, TiSpark needs `mysql-connector-java` for writing and authentication. In such cases, you need to import `mysql-connector-java` manually using either of the following methods: - -- Put `mysql-connector-java` into spark jars file. - -- Import `mysql-connector-java` when you submit a spark job. See the following example: - -``` -spark-submit --jars tispark-assembly-3.0_2.12-3.1.0-SNAPSHOT.jar,mysql-connector-java-8.0.29.jar -``` - -### Choose TiSpark version - -You can choose TiSpark version according to your TiDB and Spark version. - -| TiSpark version | TiDB, TiKV, PD version | Spark version | Scala version | -| --------------- |------------------------| ------------- | ------------- | -| 2.4.x-scala_2.11 | 5.x, 4.x | 2.3.x, 2.4.x | 2.11 | -| 2.4.x-scala_2.12 | 5.x, 4.x | 2.4.x | 2.12 | -| 2.5.x | 5.x, 4.x | 3.0.x, 3.1.x | 2.12 | -| 3.0.x | 5.x, 4.x | 3.0.x, 3.1.x, 3.2.x|2.12| -| 3.1.x | 6.x, 5.x, 4.x | 3.0.x, 3.1.x, 3.2.x, 3.3.x|2.12| -| 3.2.x | 6.x, 5.x, 4.x | 3.0.x, 3.1.x, 3.2.x, 3.3.x|2.12| - -TiSpark 2.4.4, 2.5.3, 3.0.3, 3.1.7, and 3.2.3 are the latest stable versions and are highly recommended. - -> **Note:** -> -> TiSpark does not guarantee compatibility with TiDB v7.0.0 and later versions. -> TiSpark does not guarantee compatibility with Spark v3.4.0 and later versions. - -### Get TiSpark jar - -You can get the TiSpark jar using one of the following methods: - -- Get from [maven central](https://search.maven.org/) and search for [`pingcap`](http://search.maven.org/#search%7Cga%7C1%7Cpingcap) -- Get from [TiSpark releases](https://github.com/pingcap/tispark/releases) -- Build from source with the steps below - -> **Note:** -> -> Currently, java8 is the only choice to build TiSpark, run mvn -version to check. - -``` -git clone https://github.com/pingcap/tispark.git -``` - -Run the following command under the TiSpark root directory. - -``` -// add -Dmaven.test.skip=true to skip the tests -mvn clean install -Dmaven.test.skip=true -// or you can add properties to specify spark version -mvn clean install -Dmaven.test.skip=true -Pspark3.2.1 -``` - -### TiSpark jar's artifact ID - -The Artifact ID of TiSpark varies with TiSpark versions. - -| TiSpark version | Artifact ID | -|--------------------------------| -------------------------------------------------- | -| 2.4.x-\${scala_version}, 2.5.0 | tispark-assembly | -| 2.5.1 | tispark-assembly-\${spark_version} | -| 3.0.x, 3.1.x, 3.2.x | tispark-assembly-\${spark_version}-\${scala_version} | - -## Getting started - -This document describes how to use TiSpark in spark-shell. - -### Start spark-shell - -To use TiSpark in spark-shell: - -Add the following configuration in `spark-defaults.conf`: - -``` -spark.sql.extensions org.apache.spark.sql.TiExtensions -spark.tispark.pd.addresses ${your_pd_address} -spark.sql.catalog.tidb_catalog org.apache.spark.sql.catalyst.catalog.TiCatalog -spark.sql.catalog.tidb_catalog.pd.addresses ${your_pd_address} -``` - -Start spark-shell with the `--jars` option. - -``` -spark-shell --jars tispark-assembly-{version}.jar -``` - -### Get TiSpark version - -You can get TiSpark version information by running the following command in spark-shell: - -```scala -spark.sql("select ti_version()").collect -``` - -### Read data using TiSpark - -You can use Spark SQL to read data from TiKV. - -```scala -spark.sql("use tidb_catalog") -spark.sql("select count(*) from ${database}.${table}").show -``` - -### Write data using TiSpark - -You can use the Spark DataSource API to write data to TiKV, for which ACID is guaranteed. - -```scala -val tidbOptions: Map[String, String] = Map( - "tidb.addr" -> "127.0.0.1", - "tidb.password" -> "", - "tidb.port" -> "4000", - "tidb.user" -> "root" -) - -val customerDF = spark.sql("select * from customer limit 100000") - -customerDF.write -.format("tidb") -.option("database", "tpch_test") -.option("table", "cust_test_select") -.options(tidbOptions) -.mode("append") -.save() -``` - -See [Data Source API User Guide](https://github.com/pingcap/tispark/blob/master/docs/features/datasource_api_userguide.md) for more details. - -Starting from TiSpark 3.1, you can write data to TiKV using Spark SQL. For more information, see [insert SQL](https://github.com/pingcap/tispark/blob/master/docs/features/insert_sql_userguide.md). - -### Write data using JDBC DataSource - -You can also use Spark JDBC to write to TiDB without the use of TiSpark. - -This is beyond the scope of TiSpark. This document only provides an example here. For detailed information, see [JDBC To Other Databases](https://spark.apache.org/docs/latest/sql-data-sources-jdbc.html). - -```scala -import org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions - -val customer = spark.sql("select * from customer limit 100000") -// you might need to repartition the source to make it balanced across nodes -// and increase concurrency -val df = customer.repartition(32) -df.write -.mode(saveMode = "append") -.format("jdbc") -.option("driver", "com.mysql.jdbc.Driver") - // replace the host and port with yours and be sure to use rewrite batch -.option("url", "jdbc:mysql://127.0.0.1:4000/test?rewriteBatchedStatements=true") -.option("useSSL", "false") -// as tested, setting to `150` is a good practice -.option(JDBCOptions.JDBC_BATCH_INSERT_SIZE, 150) -.option("dbtable", s"cust_test_select") // database name and table name here -.option("isolationLevel", "NONE") // set isolationLevel to NONE -.option("user", "root") // TiDB user here -.save() -``` - -Set `isolationLevel` to `NONE` to avoid large single transactions which might lead to TiDB OOM and also avoid the `ISOLATION LEVEL does not support` error (TiDB currently only supports `REPEATABLE-READ`). - -### Delete data using TiSpark - -You can use Spark SQL to delete data from TiKV. - -``` -spark.sql("use tidb_catalog") -spark.sql("delete from ${database}.${table} where xxx") -``` - -See [delete feature](https://github.com/pingcap/tispark/blob/master/docs/features/delete_userguide.md) for more details. - -### Work with other data sources - -You can use multiple catalogs to read data from different data sources as follows: - -``` -// Read from Hive -spark.sql("select * from spark_catalog.default.t").show - -// Join Hive tables and TiDB tables -spark.sql("select t1.id,t2.id from spark_catalog.default.t t1 left join tidb_catalog.test.t t2").show -``` - -## TiSpark configurations - -The configurations in the following table can be put together with `spark-defaults.conf` or passed in the same way as other Spark configuration properties. - -| Key | Default value | Description | -|-------------------------------------------------|------------------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| `spark.tispark.pd.addresses` | `127.0.0.1:2379` | The addresses of PD clusters, which are split by commas. | -| `spark.tispark.grpc.framesize` | `2147483647` | The maximum frame size of gRPC response in bytes (default to 2G). | -| `spark.tispark.grpc.timeout_in_sec` | `10` | The gRPC timeout time in seconds. | -| `spark.tispark.plan.allow_agg_pushdown` | `true` | Whether aggregations are allowed to push down to TiKV (in case of busy TiKV nodes). | -| `spark.tispark.plan.allow_index_read` | `true` | Whether index is enabled in planning (which might cause heavy pressure on TiKV). | -| `spark.tispark.index.scan_batch_size` | `20000` | The number of row keys in a batch for the concurrent index scan. | -| `spark.tispark.index.scan_concurrency` | `5` | The maximum number of threads for index scan that retrieves row keys (shared among tasks inside each JVM). | -| `spark.tispark.table.scan_concurrency` | `512` | The maximum number of threads for table scan (shared among tasks inside each JVM). | -| `spark.tispark.request.command.priority` | `Low` | The value options are `Low`, `Normal`, `High`. This setting impacts the resources allocated in TiKV. `Low` is recommended because the OLTP workload is not disturbed. | -| `spark.tispark.coprocess.codec_format` | `chblock` | Retain the default codec format for coprocessor. Available options are `default`, `chblock` and `chunk`. | -| `spark.tispark.coprocess.streaming` | `false` | Whether to use streaming for response fetching (experimental). | -| `spark.tispark.plan.unsupported_pushdown_exprs` | | A comma-separated list of expressions. In case you have a very old version of TiKV, you might disable the push down of some expressions if they are not supported. | -| `spark.tispark.plan.downgrade.index_threshold` | `1000000000` | If the range of index scan on one Region exceeds this limit in the original request, downgrade this Region's request to table scan rather than the planned index scan. By default, the downgrade is disabled. | -| `spark.tispark.show_rowid` | `false` | Whether to show row ID if the ID exists. | -| `spark.tispark.db_prefix` | | The string that indicates the extra prefix for all databases in TiDB. This string distinguishes the databases in TiDB from the Hive databases with the same name. | -| `spark.tispark.request.isolation.level` | `SI` | Whether to resolve locks for the underlying TiDB clusters. When you use the "RC", you get the latest version of the record smaller than your `tso` and ignore the locks. When you use "SI", you resolve the locks and get the records depending on whether the resolved lock is committed or aborted. | -| `spark.tispark.coprocessor.chunk_batch_size` | `1024` | Rows fetched from coprocessor. | -| `spark.tispark.isolation_read_engines` | `tikv,tiflash` | List of readable engines of TiSpark, comma separated. Storage engines not listed will not be read. | -| `spark.tispark.stale_read` | optional | The stale read timestamp(ms). See [here](https://github.com/pingcap/tispark/blob/master/docs/features/stale_read.md) for more details. | -| `spark.tispark.tikv.tls_enable` | `false` | Whether to enable TiSpark TLS.   | -| `spark.tispark.tikv.trust_cert_collection` | | The trusted certificate for TiKV Client, used for verifying the remote PD's certificate, for example, `/home/tispark/config/root.pem` The file should contain an X.509 certificate collection. | -| `spark.tispark.tikv.key_cert_chain` | | An X.509 certificate chain file for TiKV Client, for example, `/home/tispark/config/client.pem`. | -| `spark.tispark.tikv.key_file` | | A PKCS#8 private key file for TiKV Client, for example, `/home/tispark/client_pkcs8.key`. | -| `spark.tispark.tikv.jks_enable` | `false` | Whether to use the JAVA key store instead of the X.509 certificate. | -| `spark.tispark.tikv.jks_trust_path` | | A JKS format certificate for TiKV Client, generated by `keytool`, for example, `/home/tispark/config/tikv-truststore`. | -| `spark.tispark.tikv.jks_trust_password` | | The password of `spark.tispark.tikv.jks_trust_path`. | -| `spark.tispark.tikv.jks_key_path` | | A JKS format key for TiKV Client, generated by `keytool`, for example, `/home/tispark/config/tikv-clientstore`. | -| `spark.tispark.tikv.jks_key_password` | | The password of `spark.tispark.tikv.jks_key_path`. | -| `spark.tispark.jdbc.tls_enable` | `false` | Whether to enable TLS when using the JDBC connector. | -| `spark.tispark.jdbc.server_cert_store` | | The trusted certificate for JDBC. It is a Java keystore (JKS) format certificate generated by `keytool`, for example, `/home/tispark/config/jdbc-truststore`. The default value is "", which means TiSpark does not verify the TiDB server. | -| `spark.tispark.jdbc.server_cert_password` | | The password of `spark.tispark.jdbc.server_cert_store`. | -| `spark.tispark.jdbc.client_cert_store` | | A PKCS#12 certificate for JDBC. It is a JKS format certificate generated by `keytool`, for example, `/home/tispark/config/jdbc-clientstore`. Default is "", which means TiDB server doesn't verify TiSpark. | -| `spark.tispark.jdbc.client_cert_password` | | The password of `spark.tispark.jdbc.client_cert_store`. | -| `spark.tispark.tikv.tls_reload_interval` | `10s` | The interval for checking if there is any reloading certificates. The default value is `10s` (10 seconds). | -| `spark.tispark.tikv.conn_recycle_time` | `60s` | The interval for cleaning expired connections with TiKV. It takes effect only when certificate reloading is enabled. The default value is `60s` (60 seconds). | -| `spark.tispark.host_mapping` | | The route map used to configure the mapping between public IP addresses and intranet IP addresses. When the TiDB cluster is running on the intranet, you can map a set of intranet IP addresses to public IP addresses for an outside Spark cluster to access. The format is `{Intranet IP1}:{Public IP1};{Intranet IP2}:{Public IP2}`, for example, `192.168.0.2:8.8.8.8;192.168.0.3:9.9.9.9`. | -| `spark.tispark.new_collation_enable` | | When [new collation](https://docs.pingcap.com/tidb/stable/character-set-and-collation#new-framework-for-collations) is enabled on TiDB, this configuration can be set to `true`. If `new collation` is not enabled on TiDB, this configuration can be set to `false`. If this item is not configured, TiSpark configures `new collation` automatically based on the TiDB version. The configuration rule is as follows: If the TiDB version is greater than or equal to v6.0.0, it is `true`; otherwise, it is `false`. | -| `spark.tispark.replica_read` | `leader` | The type of the replica to read. Value options are `leader`, `follower`, and `learner`. Multiple types can be specified at the same time and TiSpark selects the type according to the order. | -| `spark.tispark.replica_read.label` | | The label of the target TiKV node. The format is `label_x=value_x,label_y=value_y`, and the items are connected by logical conjunction. | - -### TLS configurations - -TiSpark TLS has two parts: TiKV Client TLS and JDBC connector TLS. To enable TLS in TiSpark, you need to configure both. `spark.tispark.tikv.xxx` is used for TiKV Client to create a TLS connection with PD and TiKV server. `spark.tispark.jdbc.xxx` is used for JDBC to connect with TiDB server in TLS connection. - -When TiSpark TLS is enabled, you must configure either the X.509 certificate with `tikv.trust_cert_collection`, `tikv.key_cert_chain` and `tikv.key_file` configurations, or the JKS certificate with `tikv.jks_enable`, `tikv.jks_trust_path` and `tikv.jks_key_path`. `jdbc.server_cert_store` and `jdbc.client_cert_store` are optional. - -TiSpark only supports TLSv1.2 and TLSv1.3. - -* The following is an example of opening TLS configuration with the X.509 certificate in TiKV Client. - -``` -spark.tispark.tikv.tls_enable true -spark.tispark.tikv.trust_cert_collection /home/tispark/root.pem -spark.tispark.tikv.key_cert_chain /home/tispark/client.pem -spark.tispark.tikv.key_file /home/tispark/client.key -``` - -* The following is an example of enabling TLS with JKS configurations in TiKV Client. - -``` -spark.tispark.tikv.tls_enable true -spark.tispark.tikv.jks_enable true -spark.tispark.tikv.jks_key_path /home/tispark/config/tikv-truststore -spark.tispark.tikv.jks_key_password tikv_trustore_password -spark.tispark.tikv.jks_trust_path /home/tispark/config/tikv-clientstore -spark.tispark.tikv.jks_trust_password tikv_clientstore_password -``` - -When both JKS and X.509 certificates are configured, JKS would have a higher priority. That means TLS builder will use JKS certificate first. Therefore, do not set `spark.tispark.tikv.jks_enable=true` when you just want to use a common PEM certificate. - -* The following is an example of enabling TLS in JDBC connector. - -``` -spark.tispark.jdbc.tls_enable true -spark.tispark.jdbc.server_cert_store /home/tispark/jdbc-truststore -spark.tispark.jdbc.server_cert_password jdbc_truststore_password -spark.tispark.jdbc.client_cert_store /home/tispark/jdbc-clientstore -spark.tispark.jdbc.client_cert_password jdbc_clientstore_password -``` - -- For details about how to open TiDB TLS, see [Enable TLS between TiDB Clients and Servers](/enable-tls-between-clients-and-servers.md). -- For details about how to generate a JAVA key store, see [Connecting Securely Using SSL](https://dev.mysql.com/doc/connector-j/en/connector-j-reference-using-ssl.html). - -### Log4j configuration - -When you start `spark-shell` or `spark-sql` and run query, you might see the following warnings: - -``` -Failed to get database ****, returning NoSuchObjectException -Failed to get database ****, returning NoSuchObjectException -``` - -where `****` is the database name. - -The warnings are benign and occurs because Spark cannot find `****` in its own catalog. You can just ignore these warnings. - -To mute them, append the following text to `${SPARK_HOME}/conf/log4j.properties`. - -``` -# tispark disable "WARN ObjectStore:568 - Failed to get database" -log4j.logger.org.apache.hadoop.hive.metastore.ObjectStore=ERROR -``` - -### Time zone configuration - -Set time zone by using the `-Duser.timezone` system property (for example, `-Duser.timezone=GMT-7`), which affects the `Timestamp` type. - -Do not use `spark.sql.session.timeZone`. - -## Features - -The major features of TiSpark are as follows: - -| Feature support | TiSpark 2.4.x | TiSpark 2.5.x | TiSpark 3.0.x | TiSpark 3.1.x | -|---------------------------------| ------------- | ------------- | ----------- |---------------| -| SQL select without tidb_catalog | ✔ | ✔ | | | -| SQL select with tidb_catalog | | ✔ | ✔ | ✔ | -| DataFrame append | ✔ | ✔ | ✔ | ✔ | -| DataFrame reads | ✔ | ✔ | ✔ | ✔ | -| SQL show databases | ✔ | ✔ | ✔ | ✔ | -| SQL show tables | ✔ | ✔ | ✔ | ✔ | -| SQL auth | | ✔ | ✔ | ✔ | -| SQL delete | | | ✔ | ✔ | -| SQL insert | | | | ✔ | -| TLS | | | ✔ | ✔ | -| DataFrame auth | | | | ✔ | - -### Support for expression index - -TiDB v5.0 supports [expression index](/sql-statements/sql-statement-create-index.md#expression-index). - -TiSpark currently supports retrieving data from tables with `expression index`, but the `expression index` will not be used by the planner of TiSpark. - -### Work with TiFlash - -TiSpark can read data from TiFlash via the configuration `spark.tispark.isolation_read_engines`. - -### Support for partitioned tables - -**Read partitioned tables from TiDB** - -TiSpark can read the range and hash partitioned tables from TiDB. - -Currently, TiSpark does not support a MySQL/TiDB partition table syntax `select col_name from table_name partition(partition_name)`. However, you can still use the `where` condition to filter the partitions. - -TiSpark decides whether to apply partition pruning according to the partition type and the partition expression associated with the table. - -TiSpark applies partition pruning on range partitioning only when the partition expression is one of the following: - -+ column expression -+ `YEAR($argument)` where the argument is a column and its type is datetime or string literal that can be parsed as datetime. - -If partition pruning is not applicable, TiSpark's reading is equivalent to doing a table scan over all partitions. - -**Write into partitioned tables** - -Currently, TiSpark only supports writing data into the range and hash partitioned tables under the following conditions: - -+ The partition expression is a column expression. -+ The partition expression is `YEAR($argument)` where the argument is a column and its type is datetime or string literal that can be parsed as datetime. - -There are two ways to write into partitioned tables: - -- Use datasource API to write into partition table which supports replace and append semantics. -- Use delete statement with Spark SQL. - -> **Note:** -> -> Currently, TiSpark only supports writing into partitioned tables with utf8mb4_bin collation enabled. - -### Security - -If you are using TiSpark v2.5.0 or a later version, you can authenticate and authorize TiSpark users by using TiDB. - -The authentication and authorization feature is disabled by default. To enable it, add the following configurations to the Spark configuration file `spark-defaults.conf`. - -``` -// Enable authentication and authorization -spark.sql.auth.enable true - -// Configure TiDB information -spark.sql.tidb.addr $your_tidb_server_address -spark.sql.tidb.port $your_tidb_server_port -spark.sql.tidb.user $your_tidb_server_user -spark.sql.tidb.password $your_tidb_server_password -``` - -For more information, see [Authorization and authentication through TiDB server](https://github.com/pingcap/tispark/blob/master/docs/features/authorization_userguide.md). - -### Other features - -- [Push down](https://github.com/pingcap/tispark/blob/master/docs/features/push_down.md) -- [Delete with TiSpark](https://github.com/pingcap/tispark/blob/master/docs/features/delete_userguide.md) -- [Stale read](https://github.com/pingcap/tispark/blob/master/docs/features/stale_read.md) -- [TiSpark with multiple catalogs](https://github.com/pingcap/tispark/wiki/TiSpark-with-multiple-catalogs) -- [TiSpark TLS](#tls-configurations) -- [TiSpark plan](https://github.com/pingcap/tispark/blob/master/docs/features/query_execution_plan_in_TiSpark.md) - -## Statistics information - -TiSpark uses the statistic information for: - -+ Determining which index to use in your query plan with the minimum estimated cost. -+ Small table broadcasting, which enables efficient broadcast join. - -To allow TiSpark to access statistic information, make sure that relevant tables have been analyzed. - -See [Introduction to Statistics](/statistics.md) for more details about how to analyze tables. - -Since TiSpark 2.0, statistics information is automatically loaded by default. - -## FAQ - -See [TiSpark FAQ](https://github.com/pingcap/tispark/wiki/TiSpark-FAQ).