メインコンテンツへスキップ
メインコンテンツへスキップ

Kubernetes

ClickStack は OpenTelemetry (OTel) collector を使用して、Kubernetes クラスターからログ、メトリクス、Kubernetes イベントを収集し、それらを ClickStack に転送します。ネイティブな OTel ログ形式をサポートしており、追加のベンダー固有設定は不要です。

このガイドで対象とするのは、次のデータです:

  • ログ
  • インフラメトリクス
注記

アプリケーションレベルのメトリクスや APM/トレースを送信するには、対応する言語インテグレーションをアプリケーション側にも追加する必要があります。

このガイドでは、ClickStack OTel collector をゲートウェイとしてデプロイし、インジェスト API key で保護していることを前提とします。

OTel Helm チャートの設定ファイルを作成する

各ノードとクラスター自体の両方からログとメトリクスを収集するために、2 種類の OpenTelemetry コレクターをデプロイする必要があります。1 つは各ノードからログとメトリクスを収集するためにデーモンセットとしてデプロイし、もう 1 つはクラスター自体からログとメトリクスを収集するためにデプロイメントとしてデプロイします。

API key Secret の作成

HyperDX で発行した インジェスト API key を使用して、新しい Kubernetes Secret を作成します。これは、以下でインストールするコンポーネントが ClickStack の OTel collector へ安全にインジェストするために使用されます。

kubectl create secret generic hyperdx-secret \
--from-literal=HYPERDX_API_KEY=<ingestion_api_key> \

さらに、ClickStack の OTel collector の場所を指定する ConfigMap を作成します:

kubectl create configmap -n=otel-demo otel-config-vars --from-literal=YOUR_OTEL_COLLECTOR_ENDPOINT=<OTEL_COLLECTOR_ENDPOINT>
# e.g. kubectl create configmap -n=otel-demo otel-config-vars --from-literal=YOUR_OTEL_COLLECTOR_ENDPOINT=http://my-hyperdx-hdx-oss-v2-otel-collector:4318

デーモンセット構成の作成

デーモンセットは、クラスター内の各ノードからログとメトリクスを収集しますが、Kubernetes イベントやクラスター全体のメトリクスは収集しません。

デーモンセットのマニフェストをダウンロードします:

curl -O https://raw.githubusercontent.com/ClickHouse/clickhouse-docs/refs/heads/main/docs/use-cases/observability/clickstack/example-datasets/_snippets/k8s_daemonset.yaml
k8s_daemonset.yaml
# daemonset.yaml
mode: daemonset

# kubeletstats の CPU/メモリ使用率メトリクスを利用するために必須
clusterRole:
  create: true
  rules:
    - apiGroups:
        - ''
      resources:
        - nodes/proxy
      verbs:
        - get

presets:
  logsCollection:
    enabled: true
  hostMetrics:
    enabled: true
  # Kubernetes プロセッサーを構成して Kubernetes メタデータを追加します。
  # すべてのパイプラインに k8sattributes プロセッサーを追加し、クラスター ロールに必要なルールを追加します。
  # 詳細は https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-attributes-processor を参照してください。
  kubernetesAttributes:
    enabled: true
    # 有効化すると、プロセッサーは関連するポッドのすべてのラベルを取得し、
    # それらをリソース属性として追加します。
    # ラベルの正確な名前がキーとして使用されます。
    extractAllPodLabels: true
    # 有効化すると、プロセッサーは関連するポッドのすべてのアノテーションを取得し、
    # それらをリソース属性として追加します。
    # アノテーションの正確な名前がキーとして使用されます。
    extractAllPodAnnotations: true
  # コレクターを構成して、キューブレット上の API サーバーからノード、ポッド、およびコンテナのメトリクスを収集します。
  # metrics パイプラインに kubeletstats receiver を追加し、クラスター ロールに必要なルールを追加します。
  # 詳細は https://opentelemetry.io/docs/kubernetes/collector/components/#kubeletstats-receiver を参照してください。
  kubeletMetrics:
    enabled: true

extraEnvs:
  - name: YOUR_OTEL_COLLECTOR_ENDPOINT
    valueFrom:
      configMapKeyRef:
        name: otel-config-vars
        key: YOUR_OTEL_COLLECTOR_ENDPOINT

config:
  receivers:
    # 追加の kubelet メトリクスを構成します。
    kubeletstats:
      collection_interval: 20s
      auth_type: 'serviceAccount'
      endpoint: '${env:K8S_NODE_NAME}:10250'
      insecure_skip_verify: true
      metrics:
        k8s.pod.cpu_limit_utilization:
          enabled: true
        k8s.pod.cpu_request_utilization:
          enabled: true
        k8s.pod.memory_limit_utilization:
          enabled: true
        k8s.pod.memory_request_utilization:
          enabled: true
        k8s.pod.uptime:
          enabled: true
        k8s.node.uptime:
          enabled: true
        k8s.container.cpu_limit_utilization:
          enabled: true
        k8s.container.cpu_request_utilization:
          enabled: true
        k8s.container.memory_limit_utilization:
          enabled: true
        k8s.container.memory_request_utilization:
          enabled: true
        container.uptime:
          enabled: true

  exporters:
    otlphttp:
      endpoint: "${env:YOUR_OTEL_COLLECTOR_ENDPOINT}"
      compression: gzip

  service:
    pipelines:
      logs:
        exporters:
          - otlphttp
      metrics:
        exporters:
          - otlphttp

デプロイメント設定の作成

Kubernetes のイベントおよびクラスター全体のメトリクスを収集するには、別の OpenTelemetry コレクターをデプロイメントとしてデプロイする必要があります。

デプロイメントマニフェストをダウンロードします:

curl -O https://raw.githubusercontent.com/ClickHouse/clickhouse-docs/refs/heads/main/docs/use-cases/observability/clickstack/example-datasets/_snippets/k8s_deployment.yaml
k8s_deployment.yaml
# deployment.yaml
mode: deployment

image:
  repository: otel/opentelemetry-collector-contrib
  tag: 0.123.0
 
# このコレクターは 1 つだけにします。複数起動すると重複したデータが生成されます。
replicaCount: 1
 
presets:
  kubernetesAttributes:
    enabled: true
    # 有効化すると、関連付けられたポッドのすべての label を抽出し、リソース属性として追加します。
    # label の完全な名前がキーとして使用されます。
    extractAllPodLabels: true
    # 有効化すると、関連付けられたポッドのすべての annotation を抽出し、リソース属性として追加します。
    # annotation の完全な名前がキーとして使用されます。
    extractAllPodAnnotations: true
  # コレクターを構成して Kubernetes イベントを収集します。
  # logs パイプラインに k8sobject receiver を追加し、デフォルトで Kubernetes イベントを収集します。
  # 詳細: https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-objects-receiver
  kubernetesEvents:
    enabled: true
  # Kubernetes Cluster Receiver を構成してクラスター単位のメトリクスを収集します。
  # metrics パイプラインに k8s_cluster receiver を追加し、ClusterRole に必要なルールを追加します。
  # 詳細: https://opentelemetry.io/docs/kubernetes/collector/components/#kubernetes-cluster-receiver
  clusterMetrics:
    enabled: true

extraEnvs:
  - name: YOUR_OTEL_COLLECTOR_ENDPOINT
    valueFrom:
      configMapKeyRef:
        name: otel-config-vars
        key: YOUR_OTEL_COLLECTOR_ENDPOINT

config:
  exporters:
    otlphttp:
      endpoint: "${env:YOUR_OTEL_COLLECTOR_ENDPOINT}"
      compression: gzip
  service:
    pipelines:
      logs:
        exporters:
          - otlphttp
      metrics:
        exporters:
          - otlphttp

OpenTelemetry Collector のデプロイ

OpenTelemetry Collector は、OpenTelemetry Helm チャート を使用して Kubernetes クラスターにデプロイできるようになりました。

OpenTelemetry の Helm リポジトリを追加します:

helm repo add open-telemetry https://open-telemetry.github.io/opentelemetry-helm-charts # Add OTel Helm repo

上記の設定でチャートをインストールします。

helm install my-opentelemetry-collector-deployment open-telemetry/opentelemetry-collector -f k8s_deployment.yaml
helm install my-opentelemetry-collector-daemonset open-telemetry/opentelemetry-collector -f k8s_daemonset.yaml

これで、Kubernetes クラスターのメトリクス、ログ、および Kubernetes イベントが HyperDX に表示されるようになっているはずです。

リソースタグをポッドに転送する (推奨)

アプリケーションレベルのログ、メトリクス、トレースを Kubernetes メタデータ (例: ポッド名、ネームスペース など)と相関付けるには、OTEL_RESOURCE_ATTRIBUTES 環境変数を使用して Kubernetes メタデータをアプリケーションに転送する必要があります。

以下は、環境変数を使用して Kubernetes メタデータをアプリケーションに 転送するデプロイメントの例です。

# my_app_deployment.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
  name: app-deployment
spec:
  replicas: 1
  selector:
    matchLabels:
      app: app
  template:
    metadata:
      labels:
        app: app
        # Combined with the Kubernetes Attribute Processor, this will ensure
        # the pod's logs and metrics will be associated with a service name.
        service.name: <MY_APP_NAME>
    spec:
      containers:
        - name: app-container
          image: my-image
          env:
            # ... other environment variables
            # Collect K8s metadata from the downward API to forward to the app
            - name: POD_NAME
              valueFrom:
                fieldRef:
                  fieldPath: metadata.name
            - name: POD_UID
              valueFrom:
                fieldRef:
                  fieldPath: metadata.uid
            - name: POD_NAMESPACE
              valueFrom:
                fieldRef:
                  fieldPath: metadata.namespace
            - name: NODE_NAME
              valueFrom:
                fieldRef:
                  fieldPath: spec.nodeName
            - name: DEPLOYMENT_NAME
              valueFrom:
                fieldRef:
                  fieldPath: metadata.labels['deployment']
            # Forward the K8s metadata to the app via OTEL_RESOURCE_ATTRIBUTES
            - name: OTEL_RESOURCE_ATTRIBUTES
              value: k8s.pod.name=$(POD_NAME),k8s.pod.uid=$(POD_UID),k8s.namespace.name=$(POD_NAMESPACE),k8s.node.name=$(NODE_NAME),k8s.deployment.name=$(DEPLOYMENT_NAME)