即時影像追蹤系統及其在交通監測之應用

國立交通大學 電機與控制工程學系

智慧型系統控制整合實驗室

負責教授:宋開泰教授              phone03-5731865          Emailktsong@cc.nctu.edu.tw

負責學生:戴任詔(tjc.ece88g@nctu.edu.tw) 徐慶昌(cch.ece91g@nctu.edu.tw) 楊智傑(jjak.ece.ece91g@nctu.edu.tw

智慧型運輸系統重要的功能之一是提昇道路管理與使用效率,而交通參數估測是智慧型運輸系統一項重要研究領域。為了有效完成即時多樣的交通參數擷取,研究人員使用各類型感測系統來完成任務,在這些感測系統中,又以影像視覺系統所能完成的功能最多[12]。影像處理除了可以提供道路擁塞程度的資訊外,更可提供交通流量[3]與車速等資訊。本研究以主動式輪廓模型為基礎,發展出影像追蹤技術並應用在交通資訊之估測。我們發展出以主動輪廓模型[4-8]求得車輛輪廓位置之影像量測方法,進而搭配卡曼濾波器(Kalman Filter)進行追蹤車輛輪廓,由此可求得交通參數如車速、車流量等資訊。為了解決追蹤初始化的問題,本研究運用輪廓成長的概念,設計一初始追蹤機制。

進行車輛影像追蹤時,必須能夠對影像序列(Image sequence)中每一幅影像中的車輛進行追蹤定位,以便測得車輛位置。本研究的追蹤機制是建立一描述輪廓動態變化的方程式,利用動態方程式來預估描述影像中的車輛輪廓,並使用所預估之車輛輪廓與即時影像畫面進行影像量測,測得車輛輪廓,再利用卡曼濾波器將預估車輛輪廓與所測車輛輪廓的資訊予以融合,以達到最佳之估測值,車輛影像追蹤系統架構圖如圖1所示。

本研究發展一套能自動啟動車輛追蹤之機制,它有一偵測機制可判斷連續的影像中車輛是否已進入偵測區內並進行追蹤,方法是利用輪廓成長概念[8]與影像特徵進行車輛輪廓前緣追蹤。圖2車輛追蹤初始化的過程,圖2(a)中車輛前緣尚未接觸偵測線(detection-line),表示該車輛未進入偵測區之內,圖2(b)中車輛前緣已經接觸偵測線,偵測線依據車輛前緣位置進行輪廓成長,當偵測線成長至一定大小(如圖2(c)所示),車輛已經進入追蹤區,開始進行車輛影像追蹤。圖3與圖4分別為為汽車與機車進入偵測區被追蹤的部分畫面,圖3(b)與圖4(a)為被追蹤物接觸偵測線並造成偵測線輪廓成長,圖3(c)與圖4(b)為偵測線輪廓成長至特定位置後,開始進行追蹤,圖3(c)(g)與圖4(c)為追蹤過程,當被追蹤物移動至某特定位置後停止追蹤,如圖3(h)與圖4(d)所示。

當汽車進入追蹤狀態時(如圖3(c)所示),系統開始計時,直到車輛離開追蹤區時(如圖3(h)所示)停止計時,便能計算出汽車通過追蹤區(長度為18.03m)的時間,時間計算的方法為此期間被處理影像數乘以影像更新率(0.1sec),圖3(c)(g)實際共歷經了28個影像數,所以共歷時2.8sec,由圖3中汽車影像所估算的車速約23.18km/h。圖4的機車通過追蹤區共歷經20個影像,所以歷時2sec,因此圖4中機車所估算的速度為32.45km/hr

我們除了可利用車輛影像追蹤結果估測車速外,也能透過公式求得符合車流理論的參數[3],實驗中追蹤區內所計算的車流及平均車速分別為:

1. 車輛輪廓之影像追蹤完整架構圖

 

(a)

(b)

(c)

 

2. 車輛追蹤初始化過程 (a)車輛與偵測線位置關係圖 (b)偵測線輪廓成長圖 (c).追蹤開始示意圖

(a)

(b)

(c)

(d)

(e)

(f)

(g)

(h)

 

3. 汽車影像追蹤實驗結果

 

(a)

(b)

(c)

(d)

 

4. 機車影像追蹤實驗結果

 

     

[1]       Rita Cucchiara, Massimo Piccardi and Paola Mello, “Image analysis and rule-based reasoning for a traffic monitoring system,” IEEE trans. On Intelligent Transportation Systems, Vol. 1, Issue 2, pp. 119-130, 2000.

[2]       David Beymer, Philip McLauchlan, Benn Coifman and Jitendra Malik, “A Real-time Computer Vision System for Measuring Traffic Parameters,” IEEE conf. on Computer Vision and Pattern Recognition, pp. 495 –501, 1997.

[3]       N. J. Ferrier, S. M. Rowe, A. Blake, “Real-Time Traffic Monitoring”, Proceedings of the Second IEEE Workshop on Applications of Computer Vision, pp. 81 –88, 1994.

[4]       A. M. Baumberg and D. C. Hogg, “An Efficient Method for Contour Tracking using Active Shape Models,” Proceedings of the IEEE Workshop on, pp. 194 -199, 1994.

[5]       Andrew Blake and Michael Isard, “Active Contours,” Springer Press, 1998.

[6]       Michael Kass, Andrew Witkin, and Demetri Terzopoulos. “Snakes: Active contour models,” International Journal of Computer Vision,Vol. 3, pp. 163 -169, 1988.

[7]       D. Terzopoulos and R. Szeliski, “Tracking with Kalman Snakes,” edited by Active Vision, A. Blake and A. Yuille, pp. 3-20, MIT Press, 1992.

[8]       Christophe Vieren, Francois Cabestaing, Jack-Gerard Postaire, “Catching moving objects with snakes for motion tracking,” Pattern Recognition Letters, Vol. 16, pp. 679-685, 1995.

[9]       Milan Sonka, Vaclav Hlavac, Roger Boyle, “Image Processing Analysis and Machine Vision,” PWS Publishing, 1999.