在datax中的配置json,开3线程把mysql的数据同步到elasticsearch三节点6分片的集群中,需要按照以下步骤进行操作:
1. 首先,在datax的json配置文件中,需要指定mysql和elasticsearch的相关参数,并设置并发线程数。例如:
```
{
    "job": {
        "setting": {
            "speed": {
                "channel": 3
            }
        },
        "content": [
            {
                "reader": {
                    "name": "mysqlreader",
                    "parameter": {
                        "username": "root",
                        "password": "123456",
                        "column": ["id", "name", "age"],
                        "connection": [
                            {
                                "jdbcUrl": "jdbc:mysql://localhost:3306/test",
                                "table": ["user"]
                            }
                        ]
                    }
                },
                "writer": {
                    "name": "elasticsearchwriter",
                    "parameter": {
                        "clusterName": "myCluster",
                        "index": "myIndex",
                        "type": "myType",
                        "nodes": [
                            {"ip": "192.168.0.1", "port": "9200"},
                            {"ip": "192.168.0.2", "port": "9200"},
                            {"ip": "192.168.0.3", "port": "9200"}
                        ],
                        "settings": {
                            "number_of_shards": 6,
                            "number_of_replicas": 1
                        }
                    }
                }
            }
        ]
    }
}
```
在上述配置中,我们设置了并发通道数为3,即开启3个线程同时进行数据同步。
2. 然后,运行datax命令,执行同步任务。例如:
```
python datax.py job.json
```
在执行过程中,datax会开启3个线程并发地读取mysql中的数据,并按照指定的分片设置,将数据写入到elasticsearch集群中。
3. 最后,可以通过elasticsearch的API或者Kibana等工具,对同步的数据进行查询和分析。例如:
```
GET myIndex/myType