Table of Contents
1. 初期設定
カメラの初期設定と、カメラの遠隔操作に使用するSORACOM Mosaicに関して説明します。 SORACOM Mosaicとはエッジデバイスの管理を遠隔からすることができるWebサービスです。
-
SIMの設定
SORACOM Mosaic の事前準備 を参考に、SIMを設定できます。このSIMには、SORACOMのサービスを有効化したグループを割り当てることができます。今回は、SORACOM Mosaic用にグループを作成し、 SORACOM Air、メタデータサービス 及び SORACOM Harvest Filesの3つのサービスを有効化します。 -
SORACOM Mosaicにて、カメラ画像を取得
SORACOM Mosaic コンソールを利用してデバイスを操作するを参考にしてください。SORACOM MosaicのCAMERAという項目にて画像を取得できます。
2. 開発の準備
エッジ側で動くプログラム(例えば、撮影して、画像をs3に保存するなど)をローカルで開発するため、以下の準備を行います。
- アクセス管理 (SORACOM Access Management; SAM)にユーザを追加する
ローカルから、デバイスにプログラムをアップデートするために必要となります。 SAM ユーザーを作成する を参考に作成します。
3. 開発環境の作成
ここでは、Dockerfileでローカル開発環境を構築する方法を説明します。アルゴリズムの更新方法を主に参考にして、構築しました。
-
requirements.txtの作成
SORACOM Mosaic Python module 一覧のモジュールを記載します。 後の処理で、エラーが出たため
tflite-runtime==***
のみコメントアウトしました。もし、開発に必要なライブラリがあったら、追記、もしくは、別途インストールをしてください。 -
Dockerfileによる環境構築
下記のDockerfileを作成します。ここで、上記のようにコメントアウトしたtfliteを別途インストールしていることに注意してください。
FROM ubuntu:18.04 ENV DEBIAN_FRONTEND=noninteractive RUN apt-get update -y && apt-get install -y build-essential vim \ wget curl git zip gcc cmake make openssl \ libssl-dev libbz2-dev libreadline-dev \ libsqlite3-dev python3-tk tk-dev python-tk \ libfreetype6-dev libffi-dev liblzma-dev -y jq sudo RUN git clone https://github.com/yyuu/pyenv.git /root/.pyenv ENV HOME /root ENV PYENV_ROOT $HOME/.pyenv ENV PATH $PYENV_ROOT/shims:$PYENV_ROOT/bin:$PATH RUN pyenv --version RUN pyenv install 3.7.3 RUN pyenv local 3.7.3 RUN python --version RUN pyenv rehash # このディレクトリに作成することが重要 RUN sudo mkdir -p /opt/soracom/python/ RUN chown -R $(whoami) /opt/soracom/ RUN python -m venv /opt/soracom/python/ # pyenvの環境を構築 RUN pip install --upgrade pip COPY requirements.txt . RUN pip install -r requirements.txt # tfliteは別途ダウンロードした RUN pip3 install https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp37-cp37m-linux_x86_64.whl # SORACOM CLIのダウンロード RUN wget https://github.com/soracom/soracom-cli/releases/download/v0.6.2/soracom_0.6.2_linux_amd64.tar.gz RUN tar xvf ./soracom_0.6.2_linux_amd64.tar.gz RUN cp ./soracom_0.6.2_linux_amd64/soracom /usr/local/bin/ WORKDIR /workspace
docker-compose.ymlファイルも作成します。
version: '2.3' services: ai-camera-dev: build: . container_name: ai-camera-dev image: ai-camera-dev command: /bin/sh -c "while :; do sleep 10; done" volumes: - $PWD:/workspace ports: - 18071-18080:18071-18080
docker-compose up -d
コマンドでDockerを用いた開発環境構築は終了です。
4. Dockerコンテナ内で開発環境を設定
VScodeのリモートエクスプローラから、開発用コンテナを選択することで、簡単にコンテナ内で開発できます。 コンテナ内に入ると、SORACOM CLIの設定と、SORACOM Mosaicデプロイツールの取得を行います。
-
実行したいPython開発環境を設定
source /opt/soracom/python/bin/activate
で、ライブラリをインストールしたPython開発環境設定できます。 -
SORACOM CLI の設定
SORACOM CLI をインストールし SIM カードの一覧を取得する の記事を参考にしつつ、SORACOM CLIを設定します。 記事中のステップ1は、Dockerで環境構築時に行っているので、ステップ2より行います。まず、認証情報の設定します。
LANG=ja soracom configure
次に、確認のため、SIMカードの一覧を取得します。
soracom subscribers list
-
SORACOM Mosaicのデプロイツールを取得
ローカルで開発したプログラムをデバイスにデプロイする必要があり、そのツールが準備されています。ここから、デプロイツールをダウンロードしてください。そして、以下のコマンドが動作するか確認します。jq mosaic_deploy.sh
もし、動作しない場合は、権限を与えれば良いかもしれません。
5. サンプルアルゴリズムに関して
サンプルプログラムをここからダウンロードして、解凍してください。
まずは、簡単に、カメラから画像を取得する方法を説明します。
-
画像取得用のURLを発行
SORACOM Mosaicにて、Remote Accessというフォームより、SORACOM Napterによるリモートアクセス用のURLを発行できます。設定として、USE TLSにチェックを入れ、portを8080、開発環境のIPアドレスを設定してください。IPアドレスに関しては、空のままだと、SORACOM Mosaicを表示しているIPが設定されます。取得したURLに対して、以下のURLを叩けば、画像が表示されます。
https://<ip>.napter.soracom.io:<port>/v1/startCameraCapture https://<ip>.napter.soracom.io:<port>/v1/cameraJpegImage
ここで取得する画像は、思ったより赤みがかっているかもしれません。しかし、その原因は、暗視も可能にするIRカメラを使用している影響です。精度を保証するわけではありませんが、画像が赤みがかっている場合でも、意外と機械学習モデルは認識してくれます。
-
ローカルの開発環境から画像へのアクセス
発行したURLを環境変数に設定します。export DEVICE_INTERFACE_URI=https://{Napter で発行した URL}
ダウンロードしたサンプルプログラムのディレクトリに移動し、サンプルプログラムを実行します。
cd ${sample_dir} ./CameraApp0
サンプルプログラムの場合、
/tmp
ディレクトリに定期的にカメラ画像が保存されます。サンプルプログラム内には、画像の取得ライブラリなども入っており、基本的そのライブラリを駆使しつつ
./CameraApp0.py
のプログラムを変更していけば、開発できると思います。
6. デプロイ
実際のデバイスにプログラムをデプロイする方法を説明します。
4で取得したデプロイツールを実行します。
./mosaic_deploy.sh -d <Device id> /workspace/CameraApp0
7. 開発時のTips
ここでは、開発時に、対処に迷った部分を解説します。
-
環境変数の設定
SORACOM MosaicのAPP(CAMERAAPP0)という項目にて、環境変数を設定できます。プログラムでは、os.getenv( 'SORACOM_ENV_WAIT', 5)
のような形で読み込めます。ローカルで確認する時は、環境変数が設定されておらず、デフォルト値が読み込まれます。
自由に環境変数名を設定することができないため、もし、別途パラメータを注入したい場合、
SORACOM_ENV_FREE_PARAM
が使用できます。これは、辞書型で、以下のように設定できます。{'PARAM1':1, 'HOGEHOGE': 'test param', 'PARAM2': 'test2'}
この変数は、以下のようにして、読み込むことができます。
FREE_PARAM = str(os.getenv('SORACOM_ENV_FREE_PARAM', '{}')) FREE_PARAM = json.loads(FREE_PARAM) PARAM1 = int(FREE_PARAM.get('PARAM1', 0)) PARAM2 = str(FREE_PARAM.get('PARAM2', 'param2'))
-
ライブラリの取得
デバイス内でPythonプログラムから使用できるライブラリは、ここに記載されています。しかし、要件によっては、必要なライブラリのインストールが必要なこともあると思います。そこで、PreSetupというファイルがサンプルプログラムに含まれており、このPreSetupにインストール処理を書くことで、対処できます。PreSetupは、デバイス側でCameraApp0.py
が実行される前に、実行されるファイルです。例えば、以下のように記載できます。#!/bin/bash echo PreSetup pip install Keras==2.3.1 pip freeze mkdir -p /opt/app wget -O /opt/app/ssd_mobilenet_v2_coco_quant_postprocess.tflite "https://github.com/google-coral/edgetpu/raw/master/test_data/ssd_mobilenet_v2_coco_quant_postprocess.tflite"
ここでは、機械学習ライブラリの一つであるKerasのインストールと、モデル重みのダウンロードを行っています。これで、機械学習モデルによる予測に必要なライブラリやファイルをダウンロードできます。
8. s3に画像ファイルを送信する
s3への画像送信方法は、【Ask SA!】S+ Camera Basic 入門と AWS サービスとの連携による表情解析とダッシュボード作成 という公式の記事に記載されています。ここでは、実装中に調査したことについて説明したいと思います。
-
s3のPresigned URLの取得
s3に保存するためのPresigned URLをAWS Lambdaで発行します。 AWS Lambdaへのアクセスは、SORACOM Funkを用いています。AWS Lambdaの実行権限を与えたロールと実行したいARNを記載することで設定できます。デバイス上で実行されるS3のPresigned URL取得関数は、以下のようになります。この関数によりSORACOM Funkを介して、S3に画像ファイルを送信するためのPresigned URLが発行されます。
def send_req_s3_presignedurl(file_name, bucket_name): """ s3のpresigenedurlを取得する file_name: s3に置く際のパス bucket_name: バケットの名前 """ msg = json.dumps({ "type": "get_upload_url", "file_name": file_name, "bucket_name": bucket_name } endpoint = 'http://funk.soracom.io' req = urllib.request.Request( endpoint, data = msg.encode(), headers = {"content-type":"application/json"} ) with urllib.request.urlopen(req) as res: response_data = json.loads(res.read().decode('utf8')) return response_dat
AWS Lambdaにおいて、Presigned URLを発行するコードは以下になります。最近、AWS LambdaがDockerに対応していたので、AWS Lambdaがコンテナイメージをサポートしたので、Detectron2 を使って画像認識(Object Detection)を行うAPI を作るという記事を参考にしつつ、Docker in AWS Lambdaで動作確認しました。
import boto3 _expire_time = 600 #10min def get_pre_signedurl(obj_name, bucket_name): s3 = boto3.client('s3') try: res = s3.generate_presigned_post( bucket_name, obj_name, ExpiresIn=_expire_time ) return res except Exception as e: logger.error(f'failed to create presigned url, {e}') return None def handler(event, context): if "file_name" in event: file_name = event["file_name"] bucket_name = event["bucket_name"] res = get_pre_signedurl(file_name, bucket_name) if res is None: raise ValueError(f"Can not create sigend url: {event}") else: raise ValueError(f"Can not get event params key: {event}") return res
-
s3に画像を送信
1により発行されたPresigned URLと, デバイスから取得したRGB画像をもとに、s3に画像を保存するプログラムは、以下の通りです。
def upload_s3(url_data, image): """ 画像をs3にアップロードする url_data: presiendurlの取得結果 image: rgb img """ # convert to jpg if image is None: raise ValueError("Upload s3 can not convert img") # 画像をエンコード encode_param = [cv2.IMWRITE_JPEG_QUALITY, UPLOAD_QUALITY] _, im_data = cv2.imencode('.jpg', image, encode_param) im_data_byte = im_data.tobytes() files = {'file': im_data_byte} # 送信する情報をまとめる if "url" in url_data and "fields" in url_data: url = url_data["url"] fields = url_data["fields"] else: raise ValueError("url and fields not included in Presigned url") # s3に送信 try: res= requests.post(url, data=fields, files=files) logger.debug(res.text) except Exception as e: raise ValueError(f"Upload s3 post fail {e}") return True
基本的には、上記に示した記事とプログラムで、画像をs3に送信できると思います。
まとめ
以上、SORACOMのAI カメラ「S+ Camera Basic」で取得した画像をs3に保存する方法を紹介しました。最近は、モデルの軽量化手法も多く開発されてきており、エッジで処理することが当たり前になる時代がきているかもしれません。その中で、SORACOMのこのカメラは、面倒な通信部分などは、SORACOM側で処理してくれており、AIや画像処理の実装に集中できるので、機械学習エンジニアとしても重宝しています!