g++(gcc)では
g++ sample.cpp -o sample `pkg-config --cflags --libs opencv`
じゃないとコンパイルできなかった
オプションの順番で結果が変わったが、これは、リンクの依存関係で順番を変える必要があるためだそうだ。
参考:http://www.hakodate-ct.ac.jp/~tokai/tokai/gtkmm/etc/p1.htm
2012年12月29日土曜日
2012年3月13日火曜日
OpenCVとcvblobを使用して動体を検知し赤い枠で囲む+α
難しいことは知らないので、OpenCVの動体検知のサンプルコードを拾ってきて、これを改造することにする。
ここにそれが載ってる。
ここのコードはOpenCV-1.0を対象にしたものだが、私の環境(OpenCV-2.2, fedora14 責任は負いません(笑))では問題なくコンパイルできた。
上のリンクに載っているコードをC++でコンパイル出きるように書き直す。(なぜなら、cvblobはC++でかかれているためだ。)私の場合、とりあえず標準出入力系がCとC++で違っている気がしたので、#include を #include に書き直し、C++になさそうなprintf関数をcout<< "文字列" みたいなかんじにしておいてファイル名を*.cppで保存しコンパイルしたところ問題なくコンパイルできたので、この状態にcvblobを組み込んでいった。
cvblobのインストール(cvblob 0.10.3時点)
ここではOpenCVをfedora14にデフォルトの設定でインストールしたことを前提としてはなしを進める。
cvblob にあるソースコードの最新版をダウンロードする。
またsvnを利用してもできる。
% svn checkout http://cvblob.googlecode.com/svn/trunk/ cvblob
としてもダウンロードできる。
ソースコードのアーカイブを展開し、そのディレクトリに移動したとする。
% cmake .
% make
# make install
を実行。
(OpenCVをデフォルトでない場所にインストールしたときは
% cmake . -DOpenCV_DIR= <OpenCVをインストールした場所のパス>
とcmakeを実行すればいいらしい。)
http://code.google.com/p/cvblob/wiki/HowToInstallより
このようにしてインストールしたらsample.cppをコンパイルするときはg++で
% g++ `pkg-config opencv cvblob --cflags --libs` sample.cpp -o sample
とすればよい。
http://code.google.com/p/cvblob/wiki/HowToUseより
これでcvblobのインストールが完了した。サンプルコードの改造を行う。
検出された物体領域はmsk_imgに出力されている。これにcvblobを利用しラベリング処理をすることで物体をしかくで囲める。
が、このままのmsk_imgを使うとたくさんのノイズが含まれているため美しくない。そのためノイズを除去する処理をmsk_imgに適用する。
ノイズを除去するには、モルフォロジー演算や画像の膨張、圧縮などの方法が存在する。ここでは、画像を膨張、圧縮する処理を実装する。
(これが一番簡単だった気がする(笑))
cvErode,cvDilate関数を使う。
(参考)
void cvErode( const CvArr* src, CvArr* dst, IplConvKernel* element=NULL, int iterations=1 );
void cvDilate( const CvArr* src, CvArr* dst, IplConvKernel* element=NULL, int iterations=1 );
上記の処理によりノイズ除去済みのIplImage dialte が得られたとする。
このdilateにcvblobによりラベリング処理をかける。
ラベリング処理をするためには処理画像が二値化されていなければならないがdilateは二値化されている画像(マスク画像)なので二値化の処理は必要ない。
そのためcvLabel関数でそのまま処理する。またcvRenderBlobs関数がいろいろいいことをしてくれるらしいのでこれを使用する。
サンプルコードをほんの少し改変している。
難しいことは知らないので、OpenCVの動体検知のサンプルコードを拾ってきて、これを改造することにする。
ここにそれが載ってる。
ここのコードはOpenCV-1.0を対象にしたものだが、私の環境(OpenCV-2.2, fedora14 責任は負いません(笑))では問題なくコンパイルできた。
上のリンクに載っているコードをC++でコンパイル出きるように書き直す。(なぜなら、cvblobはC++でかかれているためだ。)私の場合、とりあえず標準出入力系がCとC++で違っている気がしたので、#include
cvblobのインストール(cvblob 0.10.3時点)
ここではOpenCVをfedora14にデフォルトの設定でインストールしたことを前提としてはなしを進める。
cvblob にあるソースコードの最新版をダウンロードする。
またsvnを利用してもできる。
% svn checkout http://cvblob.googlecode.com/svn/trunk/ cvblob
としてもダウンロードできる。
ソースコードのアーカイブを展開し、そのディレクトリに移動したとする。
% cmake .
% make
# make install
を実行。
(OpenCVをデフォルトでない場所にインストールしたときは
% cmake . -DOpenCV_DIR= <OpenCVをインストールした場所のパス>
とcmakeを実行すればいいらしい。)
http://code.google.com/p/cvblob/wiki/HowToInstallより
このようにしてインストールしたらsample.cppをコンパイルするときはg++で
% g++ `pkg-config opencv cvblob --cflags --libs` sample.cpp -o sample
とすればよい。
http://code.google.com/p/cvblob/wiki/HowToUseより
これでcvblobのインストールが完了した。サンプルコードの改造を行う。
検出された物体領域はmsk_imgに出力されている。これにcvblobを利用しラベリング処理をすることで物体をしかくで囲める。
が、このままのmsk_imgを使うとたくさんのノイズが含まれているため美しくない。そのためノイズを除去する処理をmsk_imgに適用する。
ノイズを除去するには、モルフォロジー演算や画像の膨張、圧縮などの方法が存在する。ここでは、画像を膨張、圧縮する処理を実装する。
(これが一番簡単だった気がする(笑))
cvErode,cvDilate関数を使う。
(参考)
void cvErode( const CvArr* src, CvArr* dst, IplConvKernel* element=NULL, int iterations=1 );
void cvDilate( const CvArr* src, CvArr* dst, IplConvKernel* element=NULL, int iterations=1 );
上記の処理によりノイズ除去済みのIplImage dialte が得られたとする。
このdilateにcvblobによりラベリング処理をかける。
ラベリング処理をするためには処理画像が二値化されていなければならないがdilateは二値化されている画像(マスク画像)なので二値化の処理は必要ない。
そのためcvLabel関数でそのまま処理する。またcvRenderBlobs関数がいろいろいいことをしてくれるらしいのでこれを使用する。
サンプルコードをほんの少し改変している。
#include <cv.h> #include <highgui.h> #include <ctype.h> #include <iostream> #include "cvblob.h" using namespace std; using namespace cvb; int main(int argc, char **argv){ int i, c, counter; int INIT_TIME = 100; int w = 0, h = 0; int a = 100, b = 150; int is_detecting = 0; int detect_count = 0; double B_PARAM = 1.0 / 1.1;//お好みの値にチューニングしてください。 double T_PARAM = 1.0 / 2.0;//お好みの値にチューニングしてください。 double Zeta = 40.0; //お好みの値にチューニングしてください。 CvCapture *capture = 0; IplImage *frame = 0; IplImage *av_img, *sgm_img; IplImage *lower_img, *upper_img, *tmp_img; IplImage *dst_img, *msk_img, *msk_img2; IplImage *dilate; IplImage *erode; //コマンド引数によって指定された番号のカメラに対するキャプチャ構造体を作成する if (argc == 1 || (argc == 2 && strlen (argv[1]) == 1 && isdigit (argv[1][0]))) capture = cvCreateCameraCapture (argc == 2 ? argv[1][0] - '0' : 0); //1フレームキャプチャし,キャプチャサイズを取得する. frame = cvQueryFrame (capture); cvSetCaptureProperty (capture, CV_CAP_PROP_FRAME_WIDTH, 1280); frame = cvQueryFrame (capture); w = frame->width; h = frame->height; //作業用の領域を生成する av_img = cvCreateImage (cvSize (w, h), IPL_DEPTH_32F, 3); sgm_img = cvCreateImage (cvSize (w, h), IPL_DEPTH_32F, 3); tmp_img = cvCreateImage (cvSize (w, h), IPL_DEPTH_32F, 3); lower_img = cvCreateImage (cvSize (w, h), IPL_DEPTH_32F, 3); upper_img = cvCreateImage (cvSize (w, h), IPL_DEPTH_32F, 3); dst_img = cvCreateImage (cvSize (w, h), IPL_DEPTH_8U, 3); msk_img = cvCreateImage (cvSize (w, h), IPL_DEPTH_8U, 1); msk_img2 = cvCreateImage (cvSize (w, h), IPL_DEPTH_8U, 1); dilate = cvCreateImage(cvSize(w, h), IPL_DEPTH_8U, 1); erode = cvCreateImage(cvSize(w, h), IPL_DEPTH_8U, 1); //背景の輝度平均の初期値を計算する cout << "Background statistics initialization start" << endl; cvSetZero (av_img); for (i = 0; i < INIT_TIME; i++) { frame = cvQueryFrame (capture); cvAcc (frame, av_img); } cvConvertScale (av_img, av_img, 1.0 / INIT_TIME); //背景の輝度振幅の初期値を計算する cvSetZero (sgm_img); for (i = 0; i < INIT_TIME; i++) { frame = cvQueryFrame (capture); cvConvert (frame, tmp_img); cvSub (tmp_img, av_img, tmp_img); cvPow (tmp_img, tmp_img, 2.0); cvConvertScale (tmp_img, tmp_img, 2.0); cvPow (tmp_img, tmp_img, 0.5); cvAcc (tmp_img, sgm_img); } cvConvertScale (sgm_img, sgm_img, 1.0 / INIT_TIME); cout << "Background statistics initialization finish" << endl; //表示用ウィンドウを生成する cvInitFont (&font, CV_FONT_HERSHEY_COMPLEX, 0.7, 0.7); cvNamedWindow ("Input", CV_WINDOW_AUTOSIZE); cvNamedWindow ("Substraction", CV_WINDOW_AUTOSIZE); cvNamedWindow ("Mask", CV_WINDOW_AUTOSIZE); counter = 0; while(1){ cvSetCaptureProperty (capture, CV_CAP_PROP_FRAME_WIDTH, 1280); frame = cvQueryFrame (capture); cvConvert (frame, tmp_img); //背景となりうる画素の輝度値の範囲をチェックする cvSub (av_img, sgm_img, lower_img); cvSubS (lower_img, cvScalarAll (Zeta), lower_img); cvAdd (av_img, sgm_img, upper_img); cvAddS (upper_img, cvScalarAll (Zeta), upper_img); cvInRange (tmp_img, lower_img, upper_img, msk_img); //輝度振幅を再計算する cvSub (tmp_img, av_img, tmp_img); cvPow (tmp_img, tmp_img, 2.0); cvConvertScale (tmp_img, tmp_img, 2.0); cvPow (tmp_img, tmp_img, 0.5); //背景と判断された領域の背景の輝度平均と輝度振幅を更新する cvRunningAvg (frame, av_img, B_PARAM, msk_img); cvRunningAvg (tmp_img, sgm_img, B_PARAM, msk_img); //物体領域と判断された領域では輝度振幅のみを(背景領域よりも遅い速度で)更新する cvNot (msk_img, msk_img); cvRunningAvg (tmp_img, sgm_img, T_PARAM, msk_img); //物体領域のみを出力画像にコピーする(背景領域は黒) cvSetZero (dst_img); cvShowImage("Mask", msk_img); //ノイズを除去 for(i = 0; i < 3; i++){ cvErode(msk_img, erode, NULL, 1); } for(i = 0; i < 3; i++){ cvDilate(erode, dilate, NULL, 1); } //ターゲットの探索 cvBlobの使用 IplImage *lbl_img = cvCreateImage(cvGetSize(dilate), IPL_DEPTH_LABEL, 1); CvBlobs blobs; unsigned int result = cvLabel(dilate, lbl_img, blobs); cvRenderBlobs(lbl_img, blobs, frame, frame); cvReleaseImage(&lbl_img); cvReleaseBlobs(blobs); //マスク画像dilate(ノイズ除去)にしたがってコピー cvNot(dilate, msk_img2); //dilateを反転 cvCopy(frame, dst_img, msk_img2); //結果の表示 cvShowImage("Input", frame); cvShowImage("Substraction", dst_img); counter++; c = cvWaitKey(10); if (c == '\x1b'){ break; } } cvDestroyWindow ("Input"); cvDestroyWindow ("Substraction"); cvDestroyWindow ("Mask"); cvReleaseImage (&frame); cvReleaseImage (&dst_img); cvReleaseImage (&av_img); cvReleaseImage (&sgm_img); cvReleaseImage (&lower_img); cvReleaseImage (&upper_img); cvReleaseImage (&tmp_img); cvReleaseImage (&msk_img); cvReleaseImage (&msk_img2); cvReleaseImage (&dilate); cvReleaseImage (&erode); }
2012年3月2日金曜日
Fedora14でOpenCV2.2を使う。めも。
バージョンが古すぎるがこの環境で。
・http://opencv.willowgarage.com/wiki/CompileOpenCVUsingLinux
・ http://www.eefocus.com/DSP_geek/blog/10-12/200665_09816.html
を見てOpencv2.2をインストール。
その後何らかのソースコードをコンパイルするわけだが、
http://opencv.willowgarage.com/wiki/CompileOpenCVUsingLinux
にあったgccを使ったコンパイル方法はうまくいかなかった。
が、g++の方法はいまくいった。
OpenCVのソースコードの中にあったサンプルコードをビルドするbuild_all.shスクリプトは*.cppと*.cでgccとを使い分けていたけど、cもcppもg++でコンパイルできる?(少なくともできた)のでg++の方法をとりあえず使うことにする。
%gcc `pkg-config --cflags opencv` `pkg-config --libs opencv` -o my-opencv-prgm my-opencv-prgm.c
バージョンが古すぎるがこの環境で。
・http://opencv.willowgarage.com/wiki/CompileOpenCVUsingLinux
・ http://www.eefocus.com/DSP_geek/blog/10-12/200665_09816.html
を見てOpencv2.2をインストール。
その後何らかのソースコードをコンパイルするわけだが、
http://opencv.willowgarage.com/wiki/CompileOpenCVUsingLinux
にあったgccを使ったコンパイル方法はうまくいかなかった。
が、g++の方法はいまくいった。
OpenCVのソースコードの中にあったサンプルコードをビルドするbuild_all.shスクリプトは*.cppと*.cでgccとを使い分けていたけど、cもcppもg++でコンパイルできる?(少なくともできた)のでg++の方法をとりあえず使うことにする。
%gcc `pkg-config --cflags opencv` `pkg-config --libs opencv` -o my-opencv-prgm my-opencv-prgm.c
%g++ `pkg-config --cflags opencv` `pkg-config --libs opencv` -o my-opencv-prgm my-opencv-prgm.c
2012年2月28日火曜日
自分なりにWindows端末からサーボを制御
まずはArduinoのスケッチを適当に書く
"a","b"以外の値が送られてくるとf_ rateの変化がなくなる。
これによりシリアル経由でa,bを送信することでサーボを制御する。
Windows側のプログラム
AキーとDキーでFPSみたいに動かせるようにする。
適当にC#と.NETFrameworkで書く。
こんなかんじにコントロールを配置してする。
もうつかれた。また今度。~~~
まずはArduinoのスケッチを適当に書く
#include <Servo.h> Servo s1; int sp = 9; int f_rate = 1000; int is_add = 0; void setup(){ Serial.begin(9600); s1.attach(sp); } void loop(){ if(Serial.available() > 0){ is_add = Serial.read(); Serial.print("Received serial echo... f_rate::"); Serial.println(f_rate); } //SerialPort経由でASCII文字"a","b"がきたときにサーボを動かしっぱなしにする。 if(is_add == 'a') { f_rate++; }else if(is_add == 'd'){ f_rate--; } if (f_rate == 2400){ f_rate = 2399; }else if (f_rate == 544){ f_rate = 545; } //サーボに角度を設定 s1.writeMicroseconds(f_rate); delay(1); }
"a","b"以外の値が送られてくるとf_ rateの変化がなくなる。
これによりシリアル経由でa,bを送信することでサーボを制御する。
Windows側のプログラム
AキーとDキーでFPSみたいに動かせるようにする。
適当にC#と.NETFrameworkで書く。
こんなかんじにコントロールを配置してする。
using System; using System.Collections.Generic; using System.ComponentModel; using System.Data; using System.Drawing; using System.Linq; using System.Text; using System.Windows.Forms; using System.IO.Ports; namespace webCamCtr1 { public partial class Form1 : Form { int x = 0; string is_opened = ""; SerialPort myPort; int is_pressing = 0; public Form1() { InitializeComponent(); } private void Form1_MouseMove(object sender, MouseEventArgs e) { } private void Form1_KeyDown(object sender, KeyEventArgs e) { //button1.Visible = true; //label1.Text = e.KeyValue.ToString(); if (is_pressing != 1){ if (e.KeyCode == Keys.A) { myPort.Write("a"); label1.Text = "<-"; is_pressing = 1; } if (e.KeyCode == Keys.D) { myPort.Write("d"); label1.Text = "->"; is_pressing = 1; } } x++; label2.Text = x.ToString(); } private void Form1_Load(object sender, EventArgs e) { //foreach (String p in SerialPort.GetPortNames()) { // String p_name = p; // com_lists.Items.Add(p_name); //} //com_lists.Items.Add("a"); String[] comName = SerialPort.GetPortNames(); com_lists.Items.AddRange(comName); this.KeyPreview = true; } private void button1_Click(object sender, EventArgs e) { int i = com_lists.SelectedIndex; if (i != -1) { button1.Text = com_lists.Text; string sp_name = com_lists.Text; int BaudRate = 9600; Parity Parity = Parity.None; int DataBits = 8; StopBits StopBits = StopBits.One; if (!(is_opened.Equals(sp_name))){ myPort = new SerialPort(sp_name, BaudRate, Parity, DataBits, StopBits); myPort.Open(); is_opened = sp_name; button1.Visible = false; this.Text = sp_name; } } else { button1.Text = "SelectCOM"; } } private void Form1_FormClosed(object sender, FormClosedEventArgs e) { } private void Form1_KeyUp(object sender, KeyEventArgs e) { myPort.Write("s"); label1.Text = "-||-"; is_pressing = 0; } } }
もうつかれた。また今度。~~~
登録:
投稿 (Atom)