docker-compose v3.1 elasticsearch v6.6.1集群“从属”未加入主服务器

问题描述 投票:0回答:1

我有一个docker-compose设置,用于在本地主机(本机上的两个容器)上进行Elasticsearch,主机,从机可以这么说。想法是“奴隶”加入“主人”。这两个容器都在一台主机(我的本地计算机)上运行(目前)。问题:从站不加入主站。 (当然,这是在多台机器上进行生产的计划)

请参阅docker-compose文件的以下部分,其中包含2个Elasticsearch服务(此处已删除其他FE服务)。想法是,将ES作为FE的索引,可以通过以下方式缩放:

docker-compose up scale elastic_slave = 3

结果:根据以下条件,所有4个容器都已启动并正在运行:docker ps

问题:但是,当通过]访问群集的运行状况时>

... _cluster / health?pretty

“主人”仅显示:

“节点数”:1,“ number_of_data_nodes”:1,

嗯-我们找不到以下版本的运行示例:d-c 3.1和ES 6.6.1。因此,这些设置的想法:

    depends_on:
      - elastic
    environment: 
      - cluster.name=docker-cluster
      - "discovery.zen.ping.unicast.hosts=elastic"

摘自d-c v2的示例。

我试图“省略”这些行之一:没有“ depends_on”,没有“ cluster.name”,没有“ discover.zen ...”..没有结果。

实际上,为什么它们在相同的内部网络“麋鹿”上运行时似乎不会自动“互相看到”?

[我们还试图停止正在运行的奴隶,然后重复docker-compose,以为:也许主机必须设置为完全运行,以便从机可以看到它。 -相同的结果:所有容器都在运行,但未作为集群连接。

  • 通过docker-compose,是否可以想到这种情况(扩展从站以获取索引)-使用这些当前版本完全可以吗?

  • 或:可以使用哪些版本?

  • [[(好吧,我们现在不打算迁移到ES 7,很难将其升级到6.6.1)
  • [[还有另一个'机制',不是docker-compose,可以使这种情况运行,不确定'swarm'(已弃用吗?)

  • 非常感谢,如果解决方案在某个地方,我们深表歉意,我们已经搜索了很多,但要求是:dc version> 2(对于2,有很多示例可能行不通,我们没有尝试过)

version: '3.1' services: elastic: image: docker.elastic.co/elasticsearch/elasticsearch:6.6.1 container_name: elastic networks: - elk ports: - "9200" - "9300" expose: - "9300" - "9200" environment: - cluster.name=docker-cluster - "ES_JAVA_OPTS=-Xms1g -Xmx1g" - "http.host=0.0.0.0" - "transport.host=127.0.0.1" - "xpack.security.enabled=false" ulimits: memlock: soft: -1 hard: -1 healthcheck: test: ["CMD", "curl", "-f", "http://localhost:9200"] interval: 10s timeout: 3s retries: 1 elastic_slave: image: docker.elastic.co/elasticsearch/elasticsearch:6.6.1 networks: - elk depends_on: - elastic environment: - cluster.name=docker-cluster - "discovery.zen.ping.unicast.hosts=elastic" networks: elk: driver: bridge

请参阅从站的部分日志。它说“已加入0个节点”,从一个主节点开始。我不知道缓存问题是否重要,所以也要显示它:

elastic_slave_1  | [2019-06-24T11:58:11,055][INFO ][o.e.t.TransportService   ] [yhWiQ_5] publish_address {172.21.0.3:9300}, bound_addresses {0.0.0.0:9300}
elastic_slave_1  | [2019-06-24T11:58:11,084][INFO ][o.e.b.BootstrapChecks    ] [yhWiQ_5] bound or publishing to a non-loopback address, enforcing bootstrap checks
elastic_slave_1  | [2019-06-24T11:58:14,187][INFO ][o.e.c.s.MasterService    ] [yhWiQ_5] zen-disco-elected-as-master ([0] nodes joined), reason: new_master {yhWiQ_5}{yhWiQ_5QQ1iUm0blGbkatg}{6DOMrIVVSuiIqQdFgMLDOg}{172.21.0.3}{172.21.0.3:9300}{ml.machine_memory=7741763584, xpack.installed=true, ml.max_open_jobs=20, ml.enabled=true}
elastic_slave_1  | [2019-06-24T11:58:14,193][INFO ][o.e.c.s.ClusterApplierService] [yhWiQ_5] new_master {yhWiQ_5}{yhWiQ_5QQ1iUm0blGbkatg}{6DOMrIVVSuiIqQdFgMLDOg}{172.21.0.3}{172.21.0.3:9300}{ml.machine_memory=7741763584, xpack.installed=true, ml.max_open_jobs=20, ml.enabled=true}, reason: apply cluster state (from master [master {yhWiQ_5}{yhWiQ_5QQ1iUm0blGbkatg}{6DOMrIVVSuiIqQdFgMLDOg}{172.21.0.3}{172.21.0.3:9300}{ml.machine_memory=7741763584, xpack.installed=true, ml.max_open_jobs=20, ml.enabled=true} committed version [1] source [zen-disco-elected-as-master ([0] nodes joined)]])
elastic_slave_1  | [2019-06-24T11:58:14,273][INFO ][o.e.h.n.Netty4HttpServerTransport] [yhWiQ_5] publish_address {172.21.0.3:9200}, bound_addresses {0.0.0.0:9200}
elastic_slave_1  | [2019-06-24T11:58:14,273][INFO ][o.e.n.Node               ] [yhWiQ_5] started
elastic_slave_1  | [2019-06-24T11:58:14,296][WARN ][o.e.x.s.a.s.m.NativeRoleMappingStore] [yhWiQ_5] Failed to clear cache for realms [[]]
elastic_slave_1  | [2019-06-24T11:58:14,380][INFO ][o.e.g.GatewayService     ] [yhWiQ_5] recovered [0] indices into cluster_state

我有一个docker-compose设置,用于在本地主机(本机上的两个容器)上进行Elasticsearch,主机,从机可以这么说。想法是“奴隶”加入“主人”。两个容器都是...

docker elasticsearch docker-compose cluster-computing host
1个回答
0
投票
© www.soinside.com 2019 - 2024. All rights reserved.