فهرست:
فصل 1. 14
کلیّات تحقیق. 14
1-1- کلیّات تحقیق. 15
1-1-1- تعریف مساله و اهداف تحقیقات.. 16
1-2- اهداف.. 16
1-3- سازمان پایان نامه. 16
فصل2. 18
پیشینه تحقیق. 18
2-1- پیشینه تحقیق. 19
2-2- وسایل نقلیه خودمختار. 19
2-2-1- هوش داخلی.. 19
2-2-2- هوش خارجی.. 20
2-2-3- ترکیبی از هوش خارجی با هوش داخلی.. 20
2-3- پردازش تصویر. 20
2-4- ردیابی شی.. 21
2-5- چالش های در ردیابی شی.. 22
2-6- انتخاب ویژگی.. 22
2-6-1- رنگ... 22
2-6-2- لبه. 23
2-6-3- بافت.. 24
2-6-4- تشخیص شی.. 24
2-6-5- تفریق پس زمینه. 25
2-6-6- قطعه بندی تصاویر. 25
2-7- تشخیص لبه و ارتباط (اتصال) 26
2-8- مدل های کانتور فعال مبتنی بر لبه. 26
2-9- ردیابی اشیای متحرک.. 27
2-10- نتیجه گیری.. 27
فصل3. 29
روش اجرای تحقیق، مواد و روش ها 29
3-1- روش اجرای تحقیق/ مواد و روش ها 30
3-2- ابزار نرم افزار. 30
3-2-1- نظریه کنترل. 30
3-2-2- کتابخانه بینایی کامپیوتر OpenCV.. 31
3-3- Thresholding. 32
3-3-1- Thresholding دودویی.. 32
3-3-2- Thresholding دودویی معکوس... 32
3-3-3- Thresholding آستانه به صفر. 33
3-3-4- Thresholding آستانه معکوس به صفر. 33
3-4- بورد آردوینو. 34
3-5- ابزار سخت افزار. 34
3-5-1- هلیکوپتر. 34
3-5-2- کینکت.. 35
3-5-3- تشریح آردوینو. 37
3-5-4- بورد ساخته شده 37
فصل چهارم 39
اجرای سیستم. 39
4-1- اجرای سیستم. 40
4-2- کنترل از طریق آردینو. 40
4-3-1- مهندسی معکوس سیگنال های مادون قرمز. 40
4-3-2- مدولاسیون PWM... 41
4-3-3- ساختار بسته مادون قرمز. 41
4-4- دقت نقشه عمق کینکت.. 43
4-5- نتایج بدست آمده 44
4-6- پایداری در هوا 46
4-7- خلاصه. 47
فصل 5. 48
بحث، نتیجه گیری و پیشنهادات.. 48
5-1- کنترل پتانسیومتر دیجیتال. 49
5-2- کنترل هلیکوپتر از طریق کامپیوتر. 49
5-2-1- ردیابی.. 50
5-2-2- استخراج موقعیت هلیکوپتر. 50
5-2-3- ردیابی لبه. 51
5-2-4- دوربین مورد استفاده پروژه 51
5-2-5- کامپیوتر مورد نیاز پروژه 52
5-2-6- روش تشخیص رنگ... 52
5-2-7- تشخیص رنگ و فیلتر رنگ ها 53
5-2-8- نرم کننده تصویر. 54
5-3- ماژول ارتباط سخت افزار با کامپیوتر مورد استفاده در پروژه 54
5-4- محیط برنامه نویسی پروژه 55
5-5- کتابخانه OpenCV. 55
5-6- نحوه کارکرد پروژه 56
5-7- الگوریتم پروژه 56
5-8- خلاصه. 58
5-9- پیشنهادات.. 58
فهرست منابع. 60
5-3- ضمائم. 62
منبع:
[1] Aguilar-Ponce, R. (2007), automated object detection and tracking based on clustered sensor networks. PhD thesis, University of Louisiana. AAI3294839.
[2] Altug, E., Ostrowski, J. P., and Taylor, C. J., (2003), Quadrotor control using dual camera visual feedback. In International Conference on Robotics & Automation, IEEE, pp. 4294-4299.
[3] Amidi, O., Mesaki, Y., and Kanade, T., (1993), Research on an autonomous vision guided helicopter.
[4] Andersen, M., Jensen, T., Lisouski, P., Mortensen, A., Hansen, M., Gregersen, T., and Ahrendt, P. (2012), Kinect depth sensor evaluation for computer vision applications. Tech. rep., Aarhus University.
[5] Benezeth, Y., Jodoin, P., Emile, B., Laurent, H., and Rosenberger C. (2008), Review and evaluation of commonly-implemented background subtraction algorithms. In Pattern Recognition, pp. 1-4.
[6] Fan, J., Yau, D., Elmagarmid, A., and Aref, W. (2001), Automatic image segmentation by integrating color-edge extraction and seeded region growing. IEEE Transaction on Image Processing 1454-1466.
[7] Fieguth, P., and Terzopoulos, D. (1997), Color-based tracking of heads and other mobile objects at video frame rates. In Proc. IEEE Conf. on Computer Vision and Pattern Recognition, pp. 21-27.
[8] Heath, M., Sarkar, S., Sanocki, T., and Bowyer, K. (1996), Comparison of edge detectors: A methodology and initial study. In Computer Vision and Image Understanding, IEEE Computer Society Press, pp. 38-54.
[9] Jiang, X., and Bunke, H. (1999), Edge detection in range images based on scan line approximation. Computer Vision and Image Understanding 73, 183-199.
[10] McGillivary, P., Sousa, J., Martins, R., Rajan, K., and Leroy, F. (Southampton, UK, 2012), Integrating autonomous underwater vessels, surface vessels and aircraft as persistent surveillance components of ocean observing studies. In IEEE Autonomous Underwa- ter Vehicles.
[11] Moeslund, T. B., and Granum, E. (Mar. 2001), A survey of computer vision-based human motion capture. Computer Vision Image Understanding 81, 3 231-268.
[12] Ning, J., Zhang, L., Zhang, D., and Wu, C. (2009), robust object tracking using joint color texture histogram. IJPRAI, 1245-1263.
[13] Nummiaro, K., Koller-Meier, E., and Gool, L. V. (2003), Color features for tracking nonrigid objects. Special Issue on Visual Surveillance, Chinese Journal of Automation 29, 345-355.
[14] OpenCV. (2012), Basic thresholding operations.
[15] Pavlidis, T., and Liow, Y. T. (1990), Integrating region growing and edge detection. IEEE Trans. Pattern Analysis and Machine Intelligence 225-233.
[16] Schmid, C. (2005), Introduction into system control.
[17] Sneep, P., and Richner, J. (2011), Tracking system and communication interface for miniature RC helicopters.
[18] Solomon, C. J., and Breckon, T. P. (2010), Fundamentals of Digital Image Processing: A Practical Approach with Examples in Matlab. Wiley-Blackwell. ISBN-13: 978-0470844731.
[19] Sonka, M., Hlavac, V., and Boyle, R. (1999), Image Processing, Analysis and Machine Vision, 2 ed. Brooks/Cole.
[20] Thrun, S., Montemerlo, M., Dahlkamp, H., Stavens, D., Aron, A., Diebel, J., Gale, P. F. J., Halpenny, M., Hoffmann, G., Lau, K., Oak- ley, C., Palatucci, M., Pratt, V., and Stang, P. (2006), Stanley: The robot that won the darpa grand challenge. Journal of Field Robotics 23, 661-692.
[21] Xu, R. Y. D., Allen, J. G., and Jin, J. S. (Darlinghurst, Australia, Australia, 2004), Robust real-time tracking of nonrigid objects. In Proceedings of the Pan-Sydney area workshop on Visual information processing, VIP '05, Australian Computer Society, Inc., pp. 95-98.
[22] Yilmaz, A., Javed, O., and Shah, M. (2006), object tracking: A survey. ACM Computing Surveys (CSUR) 38, 45.
[23] Arduino Home Page, http://www.arduino.cc