diff --git a/migrate-from-tidb-to-mysql.md b/migrate-from-tidb-to-mysql.md index 6860365aa063..5dd068ba0e08 100644 --- a/migrate-from-tidb-to-mysql.md +++ b/migrate-from-tidb-to-mysql.md @@ -162,7 +162,7 @@ summary: 了解如何将数据从 TiDB 集群迁移至与 MySQL 兼容的数据 在上游集群中,执行以下命令创建从上游到下游集群的同步链路: ```shell - tiup ctl:v cdc changefeed create --server=http://127.0.0.1:8300 --sink-uri="mysql://root:@127.0.0.1:3306" --changefeed-id="upstream-to-downstream" --start-ts="434217889191428107" + tiup cdc:v cli changefeed create --server=http://127.0.0.1:8300 --sink-uri="mysql://root:@127.0.0.1:3306" --changefeed-id="upstream-to-downstream" --start-ts="434217889191428107" ``` 以上命令中: diff --git a/replicate-data-to-kafka.md b/replicate-data-to-kafka.md index 668e53f9277c..0ea8d5ece3a6 100644 --- a/replicate-data-to-kafka.md +++ b/replicate-data-to-kafka.md @@ -57,7 +57,7 @@ summary: 了解如何使用 TiCDC 从 TiDB 同步数据至 Apache Kafka 和 Apac 2. 创建一个 changefeed,将增量数据输出到 Kafka: ```shell - tiup ctl:v cdc changefeed create --server="http://127.0.0.1:8300" --sink-uri="kafka://127.0.0.1:9092/kafka-topic-name?protocol=canal-json" --changefeed-id="kafka-changefeed" --config="changefeed.conf" + tiup cdc:v cli changefeed create --server="http://127.0.0.1:8300" --sink-uri="kafka://127.0.0.1:9092/kafka-topic-name?protocol=canal-json" --changefeed-id="kafka-changefeed" --config="changefeed.conf" ``` - 如果命令执行成功,将会返回被创建的 changefeed 的相关信息,包含被创建的 changefeed 的 ID 以及相关信息,内容如下: @@ -73,13 +73,13 @@ summary: 了解如何使用 TiCDC 从 TiDB 同步数据至 Apache Kafka 和 Apac 生产环境下 Kafka 集群通常有多个 broker 节点,你可以在 sink-uri 中配置多个 broker 的访问地址,这有助于提升 changefeed 到 Kafka 集群访问的稳定性,当部分被配置的 Kafka 节点故障的时候,changefeed 依旧可以正常工作。假设 Kafka 集群中有 3 个 broker 节点,地址分别为 127.0.0.1:9092 / 127.0.0.2:9092 / 127.0.0.3:9092,可以参考如下 sink-uri 创建 changefeed: ```shell - tiup ctl:v cdc changefeed create --server="http://127.0.0.1:8300" --sink-uri="kafka://127.0.0.1:9092,127.0.0.2:9092,127.0.0.3:9092/kafka-topic-name?protocol=canal-json&partition-num=3&replication-factor=1&max-message-bytes=1048576" --config="changefeed.conf" + tiup cdc:v cli changefeed create --server="http://127.0.0.1:8300" --sink-uri="kafka://127.0.0.1:9092,127.0.0.2:9092,127.0.0.3:9092/kafka-topic-name?protocol=canal-json&partition-num=3&replication-factor=1&max-message-bytes=1048576" --config="changefeed.conf" ``` 3. Changefeed 创建成功后,执行如下命令,查看 changefeed 的状态: ```shell - tiup ctl:v cdc changefeed list --server="http://127.0.0.1:8300" + tiup cdc:v cli changefeed list --server="http://127.0.0.1:8300" ``` 可以参考[管理 Changefeed](/ticdc/ticdc-manage-changefeed.md),对 changefeed 状态进行管理。 diff --git a/ticdc/deploy-ticdc.md b/ticdc/deploy-ticdc.md index f6facfbc2070..e28925308644 100644 --- a/ticdc/deploy-ticdc.md +++ b/ticdc/deploy-ticdc.md @@ -155,7 +155,7 @@ tiup cluster upgrade --transfer-timeout 600 执行以下命令来查看 TiCDC 集群运行状态,注意需要将 `v` 替换为 TiCDC 集群版本,例如 `v7.1.2`: ```shell -tiup ctl:v cdc capture list --server=http://10.0.10.25:8300 +tiup cdc:v cli capture list --server=http://10.0.10.25:8300 ``` ```shell diff --git a/ticdc/integrate-confluent-using-ticdc.md b/ticdc/integrate-confluent-using-ticdc.md index 48a2226335ca..e7ddf49a239b 100644 --- a/ticdc/integrate-confluent-using-ticdc.md +++ b/ticdc/integrate-confluent-using-ticdc.md @@ -99,7 +99,7 @@ Confluent 是一个兼容 Apache Kafka 的数据流平台,能够访问、存 2. 创建一个 changefeed,将增量数据输出到 Confluent Cloud: ```shell - tiup ctl:v cdc changefeed create --server="http://127.0.0.1:8300" --sink-uri="kafka:///ticdc-meta?protocol=avro&replication-factor=3&enable-tls=true&auto-create-topic=true&sasl-mechanism=plain&sasl-user=&sasl-password=" --schema-registry="https://:@" --changefeed-id="confluent-changefeed" --config changefeed.conf + tiup cdc:v cli changefeed create --server="http://127.0.0.1:8300" --sink-uri="kafka:///ticdc-meta?protocol=avro&replication-factor=3&enable-tls=true&auto-create-topic=true&sasl-mechanism=plain&sasl-user=&sasl-password=" --schema-registry="https://:@" --changefeed-id="confluent-changefeed" --config changefeed.conf ``` 将如下字段替换为[第 2 步:创建 Access Key Pair](#第-2-步创建-access-key-pair)中创建和记录的值: @@ -114,7 +114,7 @@ Confluent 是一个兼容 Apache Kafka 的数据流平台,能够访问、存 其中 `` 需要经过 [HTML URL 编码](https://www.w3schools.com/tags/ref_urlencode.asp)后再替换,替换完毕后示例如下: ```shell - tiup ctl:v cdc changefeed create --server="http://127.0.0.1:8300" --sink-uri="kafka://xxx-xxxxx.ap-east-1.aws.confluent.cloud:9092/ticdc-meta?protocol=avro&replication-factor=3&enable-tls=true&auto-create-topic=true&sasl-mechanism=plain&sasl-user=L5WWA4GK4NAT2EQV&sasl-password=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" --schema-registry="https://7NBH2CAFM2LMGTH7:xxxxxxxxxxxxxxxxxx@yyy-yyyyy.us-east-2.aws.confluent.cloud" --changefeed-id="confluent-changefeed" --config changefeed.conf + tiup cdc:v cli changefeed create --server="http://127.0.0.1:8300" --sink-uri="kafka://xxx-xxxxx.ap-east-1.aws.confluent.cloud:9092/ticdc-meta?protocol=avro&replication-factor=3&enable-tls=true&auto-create-topic=true&sasl-mechanism=plain&sasl-user=L5WWA4GK4NAT2EQV&sasl-password=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" --schema-registry="https://7NBH2CAFM2LMGTH7:xxxxxxxxxxxxxxxxxx@yyy-yyyyy.us-east-2.aws.confluent.cloud" --changefeed-id="confluent-changefeed" --config changefeed.conf ``` - 如果命令执行成功,将会返回被创建的 changefeed 的相关信息,包含被创建的 changefeed 的 ID 以及相关信息,内容如下: @@ -130,7 +130,7 @@ Confluent 是一个兼容 Apache Kafka 的数据流平台,能够访问、存 3. Changefeed 创建成功后,执行如下命令,查看 changefeed 的状态: ```shell - tiup ctl:v cdc changefeed list --server="http://127.0.0.1:8300" + tiup cdc:v cli changefeed list --server="http://127.0.0.1:8300" ``` 可以参考[管理 Changefeed](/ticdc/ticdc-manage-changefeed.md),对 changefeed 状态进行管理。