動画内の人の顔を自動検出してモザイク処理する方法 Python OpenCV

スポンサーリンク
Python/DeepLearning

こんにちは、みやしんです。

今回は映像編集をする人やプライバシー保護の観点から秘匿処理を行いたい人に必見!

動画中の人の顔を自動検出してモザイクをかける方法をご紹介します!

みやしん
みやしん

モザイク処理ってこんな感じかにゃ?

スポンサーリンク

この記事でできること

こんな感じでモザイク自動でモザイク処理ができます

★イメージ★

モザイク処理前

モザイク処理後

白石さん、勝手にモザイク掛けてごめんなさい💦

参考)動画の必要な部分だけ切り抜きたい方はこちらの記事を参考にしてみてください

では、早速進めていきましょう!

顔の自動検出のための学習済みカスケード分類器をダウンロード

カスケード分類器とは

ある特定の条件に一致する画像を抽出したい場合に、特定の条件をプログラムが判別できるようにしたものを「カスケード分類器」といいます。

学習済みのカスケード分類器がOpenCVで準備されていますので、これを使います。

顔だけでなく、目などの識別ファイルもありますので興味のある方はやってみてくださいね。

今回は、顔を識別しますので”haarcascade_frontalface_default.xml”を使います。

下記からダウンロードできますので、ご自身のPCに保存してください。

リンク先

opencv/data/haarcascades at master · opencv/opencv
Open Source Computer Vision Library. Contribute to opencv/opencv development by creating an account on GitHub.

リンク先へアクセス後、まずは左上の「Code」をクリックします。

続いて、緑色のボタン「Code」を押して、Download ZIP をしてください。

ダウンロードしたら解凍しましょう。

解凍後です。

今回のフォルダ構成は以下のようにしています。

ソースコード

ソースコードをご紹介します

# -*- coding: utf-8 -*-
import cv2
import numpy as np

# モザイク処理
def mosaic(img, alpha):
    # 画像の高さと幅を抽出
    w = img.shape[1]    # 幅
    h = img.shape[0]    # 高さ

    # 画像を縮小→拡大することでモザイクをいい感じに粗くする
    img = cv2.resize(img, (int(w*alpha), int(h*alpha)))
    img = cv2.resize(img, (w, h), interpolation=cv2.INTER_NEAREST) #INTER_NEAREST 最近傍補間

    # 最近傍法:粗い画像の解像度を上げる時の色の割り当て方で、相対位置的に同じ個所にある画素の色を抽出
    return img


# 顔を検出してモザイク処理をする
def face_mosaic():
    # 顔検出の識別機の読み込み
    cascade_face = cv2.CascadeClassifier("./opencv-master/data/haarcascades/haarcascade_frontalface_default.xml")

    # 動画の読み込み
    movie = cv2.VideoCapture("./cat_shiraishi.mp4")

    # 動画の幅と高さを取得
    width = int(movie.get(cv2.CAP_PROP_FRAME_WIDTH))
    height = int(movie.get(cv2.CAP_PROP_FRAME_HEIGHT))
    size = (width, height)

    # 全フレーム数を取得
    frame_count = int(movie.get(cv2.CAP_PROP_FRAME_COUNT))

    # フレームレートを取得
    frame_rate = int(movie.get(cv2.CAP_PROP_FPS))
    # ★フレームレート現物調整(動画作成後に調整。元々5秒の動画が11秒になっていたので11/5を掛けた。動画毎に調整が必要)
    frame_rate = frame_rate * 11/5

    # mp4に設定
    fmt = cv2.VideoWriter_fourcc('m', 'p', '4', 'v')
    # ライター作成
    writer = cv2.VideoWriter('./face_mosaic_shiraishi.mp4', fmt, frame_rate, size)

    for i in range(frame_count):
        # フレームを取得
        ret, frame = movie.read() # retは画像があればTrue、なければFalse

        # 高速化のためにグレースケール変換
        gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)

        # 顔領域の探索
        face = cascade_face.detectMultiScale(gray, scaleFactor=1.1, minNeighbors=3, minSize=(30, 30))

        # 顔領域を選択して処理
        for (x, y, w, h) in face:    # x, y:顔を検出したBOXの左上の角の座標 w:幅 h:高さ
            # 顔部分を切り出してモザイク処理 (y~y+h) (x~x+w)の部分を切り出す
            frame[y:y+h, x:x+w] = mosaic(frame[y:y+h, x:x+w], 0.05) # 0.05を大きくするとモザイクが細かくなる

            # 画像を1フレーム分として書き込み
            writer.write(frame)

    writer.release()
    movie.release()
    cv2.destroyAllWindows()


if __name__ == '__main__':
    face_mosaic()

モザイク処理前後の動画

モザイク処理前

モザイク処理後

音は別途、抽出して加えないといけないですね。

くりーむしちゅーの上田さんの顔の検出が微妙なのは、文字が被っているせいだと思われます。

以上です。

Python/DeepLearning
スポンサーリンク
記事が良かったらSNSでシェアを宜しくお願いします!
みやしんをフォローすると役立つ情報がいっぱいにゃ!
スポンサーリンク

コメント

タイトルとURLをコピーしました