我有一个docker-compose设置,用于在本地主机(本机上的两个容器)上进行Elasticsearch,主机,从机可以这么说。想法是“奴隶”加入“主人”。这两个容器都在一台主机(我的本地计算机)上运行(目前)。问题:从站不加入主站。 (当然,这是在多台机器上进行生产的计划)
请参阅docker-compose文件的以下部分,其中包含2个Elasticsearch服务(此处已删除其他FE服务)。想法是,将ES作为FE的索引,可以通过以下方式缩放:
docker-compose up scale elastic_slave = 3
结果:根据以下条件,所有4个容器都已启动并正在运行:docker ps
问题:但是,当通过]访问群集的运行状况时>
... _cluster / health?pretty
“主人”仅显示:
“节点数”:1,“ number_of_data_nodes”:1,
嗯-我们找不到以下版本的运行示例:d-c 3.1和ES 6.6.1。因此,这些设置的想法:
depends_on: - elastic environment: - cluster.name=docker-cluster - "discovery.zen.ping.unicast.hosts=elastic"
摘自d-c v2的示例。
我试图“省略”这些行之一:没有“ depends_on”,没有“ cluster.name”,没有“ discover.zen ...”..没有结果。
实际上,为什么它们在相同的内部网络“麋鹿”上运行时似乎不会自动“互相看到”?
[我们还试图停止正在运行的奴隶,然后重复docker-compose,以为:也许主机必须设置为完全运行,以便从机可以看到它。 -相同的结果:所有容器都在运行,但未作为集群连接。
通过docker-compose,是否可以想到这种情况(扩展从站以获取索引)-使用这些当前版本完全可以吗?
或:可以使用哪些版本?
[[还有另一个'机制',不是docker-compose,可以使这种情况运行,不确定'swarm'(已弃用吗?)
version: '3.1'
services:
elastic:
image: docker.elastic.co/elasticsearch/elasticsearch:6.6.1
container_name: elastic
networks:
- elk
ports:
- "9200"
- "9300"
expose:
- "9300"
- "9200"
environment:
- cluster.name=docker-cluster
- "ES_JAVA_OPTS=-Xms1g -Xmx1g"
- "http.host=0.0.0.0"
- "transport.host=127.0.0.1"
- "xpack.security.enabled=false"
ulimits:
memlock:
soft: -1
hard: -1
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost:9200"]
interval: 10s
timeout: 3s
retries: 1
elastic_slave:
image: docker.elastic.co/elasticsearch/elasticsearch:6.6.1
networks:
- elk
depends_on:
- elastic
environment:
- cluster.name=docker-cluster
- "discovery.zen.ping.unicast.hosts=elastic"
networks:
elk:
driver: bridge
请参阅从站的部分日志。它说“已加入0个节点”,从一个主节点开始。我不知道缓存问题是否重要,所以也要显示它:
elastic_slave_1 | [2019-06-24T11:58:11,055][INFO ][o.e.t.TransportService ] [yhWiQ_5] publish_address {172.21.0.3:9300}, bound_addresses {0.0.0.0:9300}
elastic_slave_1 | [2019-06-24T11:58:11,084][INFO ][o.e.b.BootstrapChecks ] [yhWiQ_5] bound or publishing to a non-loopback address, enforcing bootstrap checks
elastic_slave_1 | [2019-06-24T11:58:14,187][INFO ][o.e.c.s.MasterService ] [yhWiQ_5] zen-disco-elected-as-master ([0] nodes joined), reason: new_master {yhWiQ_5}{yhWiQ_5QQ1iUm0blGbkatg}{6DOMrIVVSuiIqQdFgMLDOg}{172.21.0.3}{172.21.0.3:9300}{ml.machine_memory=7741763584, xpack.installed=true, ml.max_open_jobs=20, ml.enabled=true}
elastic_slave_1 | [2019-06-24T11:58:14,193][INFO ][o.e.c.s.ClusterApplierService] [yhWiQ_5] new_master {yhWiQ_5}{yhWiQ_5QQ1iUm0blGbkatg}{6DOMrIVVSuiIqQdFgMLDOg}{172.21.0.3}{172.21.0.3:9300}{ml.machine_memory=7741763584, xpack.installed=true, ml.max_open_jobs=20, ml.enabled=true}, reason: apply cluster state (from master [master {yhWiQ_5}{yhWiQ_5QQ1iUm0blGbkatg}{6DOMrIVVSuiIqQdFgMLDOg}{172.21.0.3}{172.21.0.3:9300}{ml.machine_memory=7741763584, xpack.installed=true, ml.max_open_jobs=20, ml.enabled=true} committed version [1] source [zen-disco-elected-as-master ([0] nodes joined)]])
elastic_slave_1 | [2019-06-24T11:58:14,273][INFO ][o.e.h.n.Netty4HttpServerTransport] [yhWiQ_5] publish_address {172.21.0.3:9200}, bound_addresses {0.0.0.0:9200}
elastic_slave_1 | [2019-06-24T11:58:14,273][INFO ][o.e.n.Node ] [yhWiQ_5] started
elastic_slave_1 | [2019-06-24T11:58:14,296][WARN ][o.e.x.s.a.s.m.NativeRoleMappingStore] [yhWiQ_5] Failed to clear cache for realms [[]]
elastic_slave_1 | [2019-06-24T11:58:14,380][INFO ][o.e.g.GatewayService ] [yhWiQ_5] recovered [0] indices into cluster_state
我有一个docker-compose设置,用于在本地主机(本机上的两个容器)上进行Elasticsearch,主机,从机可以这么说。想法是“奴隶”加入“主人”。两个容器都是...