Android で TensorFlow Lite を使用して花を認識する

1. はじめに

657431be3173fa86.png android.png

注: この Codelab のテストには実機が必要です。

TensorFlow は多目的の ML フレームワークです。TensorFlow は、クラウド上のクラスタをまたいで巨大なモデルをトレーニングすることから、スマートフォンなどの組み込みシステムでモデルをローカルで実行することまで、あらゆる用途に使用できます。

この Codelab では、TensorFlow Lite を使用して Android デバイスで画像認識モデルを実行します。

Android Studio 4.1 以降をインストールする

まだインストールしていない場合は、TensorFlow Lite モデルのトレーニング中に AndroidStudio 4.1 以降をダウンロードしてインストールしてください。

学習内容

  • TensorFlow Lite Model Maker を使用して独自のカスタム画像分類器をトレーニングする方法。
  • Android Studio で TensorFlow Lite モデルをインポートし、CameraX を使用して Android アプリにカスタムモデルを統合する方法。
  • スマートフォンで GPU を使用してモデルを高速化する方法。

作業内容

TensorFlow 画像認識プログラムを実行して花を識別するシンプルなカメラアプリ。

f11c2821f2c8311d.png

ライセンス: 無料で使用できる

2. Colab を使用して花認識機能をトレーニングする

モデルのトレーニングを開始する前に、Android Studio 4.1 以降のダウンロードとインストールを開始します。

Colab を開くと、TensorFlow Lite の転移学習を使用して花を認識するように Keras で分類器をトレーニングする方法を確認できます。

3. 作業ディレクトリを設定する

Git リポジトリのクローンを作成する

次のコマンドは、この Codelab に必要なファイルを含む Git リポジトリのクローンを作成します。

git clone https://github.com/hoitab/TFLClassify.git

次に、リポジトリのクローンを作成したディレクトリに移動します。この Codelab の残りの部分は、ここで作業を行います。

cd TFLClassify

4. Android スケルトン アプリをセットアップする

android.png

Android Studio 4.1 以降をインストールする

まだインストールしていない場合は、AndroidStudio 4.1 以降をインストールします。

Android Studio でプロジェクトを開く

Android Studio でプロジェクトを開くには、次の操作を行います。

  1. Android Studio 7f2480ded53a193b.png を開きます。読み込まれたら [Open an Existing project] を選択します。クリックします。

f3b8bea7e3b39376.png

  1. ファイル セレクタで、作業ディレクトリから TFLClassify/build.gradle を選択します。
  1. [Gradle Sync] が表示されます。ポップアップが表示され、初めてプロジェクトを開いたときに Gradle ラッパーの使用について尋ねられます。[OK] をクリックします。

d68b4d7189e6c1e4.png

  1. スマートフォンでデベロッパー モデルと USB デバッグを有効にします(まだ有効にしていない場合)。このセットアップは 1 回限りです。こちらの手順に沿って操作してください。
  2. プロジェクトとスマートフォンの両方の準備ができたら、TFL_Classify.start を選択してツールバーの実行ボタン 86934b7b01ad7565.png を押すと、実際のデバイスで実行できます。

60a77ef126c1373d.png

  1. 次に、Tensorflow デモにカメラへのアクセスを許可します。

b63cba02bb36b7e3.png

  1. スマートフォンに表示される次の画面に、実際の結果が表示される場所の代わりに乱数が表示されます。

82c603596afa35f1.png

5. TensorFlow Lite を Android アプリに追加する

  1. 左側のプロジェクト エクスプローラで start モジュールを選択します。

cede7f2b8b23c1a7.png

  1. start モジュールを右クリックするか、File をクリックしてから New をクリックします。Other >TensorFlow Lite Model

bf243d9fdd27e20a.png

  1. 先ほどカスタム トレーニングされた FlowerModel.tflite をダウンロードしたモデルの場所を選択します。

cfee18cc6674a408.png

  1. [Finish] をクリックします。
  2. 最後に、次の内容が表示されます。FlowerModel.tflite が正常にインポートされ、入力 / 出力やサンプル コードなど、モデルに関する概要情報が表示されています。

82840065f0d59def.png

6. 省略可: すべての ToDo リストを確認する

TODO リストを使用すると、Codelab を更新する必要がある正確な場所に簡単に移動できます。また、Android プロジェクトで今後の作業の参考にすることもできます。コードコメントを使用して ToDo アイテムを追加し、キーワード TODO を入力します。TODO リストには、次の方法でアクセスできます。

  1. これから行う作業を確認するには、TODO リストを確認することをおすすめします。上部のメニューバーから View >Tool Windows >TODO

5de29b413574f25c.png

  1. デフォルトでは、すべてのモジュール内のすべての TODO が一覧表示されるため、少しわかりにくくなっています。TODO パネルの横にあるグループ条件ボタンをクリックして Modules を選択することで、開始 TODO だけを並べ替えることができます

5d8fe7b102340208.png

  1. 開始モジュールのすべての項目を開きます。

8d0f14a039995b20.png

7. TensorFlow Lite でカスタムモデルを実行する

  1. TODO リストの TODO 1 をクリックするか、MainActivity.kt ファイルを開き、TODO 1 を見つけて次の行を追加してモデルを初期化します。
private class ImageAnalyzer(ctx: Context, private val listener: RecognitionListener) :
        ImageAnalysis.Analyzer {

  ...
  // TODO 1: Add class variable TensorFlow Lite Model
  private val flowerModel = FlowerModel.newInstance(ctx)

  ...
}
  1. CameraX Analyzer の analyze メソッド内で、カメラ入力 ImageProxyBitmap に変換し、推論プロセス用の TensorImage オブジェクトを作成する必要があります。
override fun analyze(imageProxy: ImageProxy) {
  ...
  // TODO 2: Convert Image to Bitmap then to TensorImage
  val tfImage = TensorImage.fromBitmap(toBitmap(imageProxy))
  ...
}
  1. 画像を処理し、結果に対して次の操作を実行します。
  • score 属性の結果を確率に基づいて降順で並べ替えます。
  • 定数 MAX_RESULT_DISPLAY で定義された上位 k 個の結果を取得します。必要に応じて、この変数の値を変更して、表示される結果を増減できます。
override fun analyze(imageProxy: ImageProxy) {
  ...
  // TODO 3: Process the image using the trained model, sort and pick out the top results
  val outputs = flowerModel.process(tfImage)
      .probabilityAsCategoryList.apply {
          sortByDescending { it.score } // Sort with highest confidence first
      }.take(MAX_RESULT_DISPLAY) // take the top results

  ...
}
  1. データ バインディングを使用して、並べ替えとフィルタリングが行われた結果を、RecyclerView で利用できるデータ オブジェクト Recognition に変換します。
override fun analyze(imageProxy: ImageProxy) {
  ...
  // TODO 4: Converting the top probability items into a list of recognitions
  for (output in outputs) {
      items.add(Recognition(output.label, output.score))
  }
  ...
}
  1. 以下の行をコメントアウトするか削除します。これは、以前に見た偽の結果を生成するのに役立ちます。
// START - Placeholder code at the start of the codelab. Comment this block of code out.
for (i in 0..MAX_RESULT_DISPLAY-1){
    items.add(Recognition("Fake label $i", Random.nextFloat()))
}
// END - Placeholder code at the start of the codelab. Comment this block of code out.
  1. TFL_Classify.start を選択してツールバーの実行ボタン 86934b7b01ad7565.png を押して、実際のデバイスでアプリを実行します。

60a77ef126c1373d.png

  1. スマートフォンに表示される次の画面に、実際の結果が表示される場所の代わりに乱数が表示されます。

f11c2821f2c8311d.png

8. 省略可: GPU デリゲートを使用して推論を高速化する

TensorFlow Lite は、モバイル デバイスでの推論を高速化するために、いくつかのハードウェア アクセラレータをサポートしています。GPU は、TensorFlow Lite がデリゲート メカニズムを通じて活用できるアクセラレータの 1 つで、非常に簡単に使用できます。

  1. start モジュールの build.gradle を開くか、TODO リストの下にある TODO 5 をクリックして、次の依存関係を追加します。
// TODO 5: Optional GPU Delegates    
implementation 'org.tensorflow:tensorflow-lite-gpu:2.3.0'
  1. MainActivity.kt ファイルに戻るか、TODO リストで [TODO 6] をクリックします。flowerModel の単純な開始を次のように置き換えます。GPU 互換性リストのインスタンスを取得し、リストにある互換性のある GPU のいずれかに該当するかどうかに応じて GPU を初期化します。それ以外の場合は、代わりに 4 つの CPU スレッドを開始してモデルを実行します。
private class ImageAnalyzer(ctx: Context, private val listener: RecognitionListener) :
        ImageAnalysis.Analyzer {
  ...

  // TODO 1: Add class variable TensorFlow Lite Model
  // Initializing the flowerModel by lazy so that it runs in the same thread when the process
  // method is called.
  private val flowerModel: FlowerModel by lazy{

    // TODO 6. Optional GPU acceleration
    val compatList = CompatibilityList()

    val options = if(compatList.isDelegateSupportedOnThisDevice){
        Log.d(TAG, "This device is GPU Compatible ")
        Model.Options.Builder().setDevice(Model.Device.GPU).build()
    } else {
        Log.d(TAG, "This device is GPU Incompatible ")
        Model.Options.Builder().setNumThreads(4).build()
    }

  ...
}
  1. メソッドの入力に options を追加して、これを使用するようにモデル イニシャライザを変更します。
private class ImageAnalyzer(ctx: Context, private val listener: RecognitionListener) :
        ImageAnalysis.Analyzer {

  private val flowerModel: FlowerModel by lazy{

    ...

    // Initialize the Flower Model
    FlowerModel.newInstance(ctx, options)
  }
}
  1. TFL_Classify.start を選択してツールバーの実行ボタン 86934b7b01ad7565.png を押して、実際のデバイスでアプリを実行します。

60a77ef126c1373d.png

9. 次のステップ

詳しくは、以下のリンクをご覧ください。