时间:2021-05-23
1. 配置并更新树莓派系统
sudo raspi-config // 进入后打开摄像头、SSHsudo apt-get updatesudo apt-get upgradesudo rpi-update2. 安装OpenCV的相关工具
sudo apt-get install build-essential cmake git pkg-config3. 安装OpenCV的图像工具包
sudo apt-get install libjpeg8-dev sudo apt-get install libtiff5-dev sudo apt-get install libjasper-dev sudo apt-get install libpng12-dev4. 安装视频I/O包
sudo apt-get install libavcodec-dev libavformat-dev libswscale-dev libv4l-dev5.安装gtk2.0和优化函数包
sudo apt-get install libgtk2.0-devsudo apt-get install libatlas-base-dev gfortran6. 下载OpenCV源码
可以在 [ OpenCV ] 查看所有版本源码
git clone https://github.com/opencv/opencv.git7. 安装OpenCV
// 根据下载的版本而定cd opencv-3.2.0 // 创建release文件夹mkdir release// 进入release目录下cd release// cmake读入所有源文件之后,自动生成makefilecmake -D CMAKE_BUILD_TYPE=RELEASE \-D CMAKE_INSTALL_PREFIX=/usr/local ..// 编译sudo make// 安装sudo make install//更新动态链接库sudo ldconfig8. 解决无法打开摄像头硬件问题
sudo nano /etc/modules// 进入编辑界面后,在末尾添加输入snd-bcm2835bcm2835-v4l29. 测试用例Python代码
# -*- coding: utf-8 -*-__author__ = "kyoRan"import cv2cap = cv2.VideoCapture(0) # 打开摄像头print("VideoCapture is opened?", cap.isOpened())while(True): ret, frame = cap.read() # 读取摄像头图像 center = (frame.shape[1]//2, frame.shape[0]//2) # 图像中心点位置 gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) # 转灰度 cv2.circle(gray, center=center, radius=100, color=(0,0,255)) # 画圆 cv2.imshow("frame", gray) # 显示图片 if cv2.waitKey(1) & 0xFF == ord('q'): breakcap.release() # 释放摄像头cv2.destroyAllWindows() # 关闭所有窗口测试结果如下
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
最近入了一块树莓派,想让其实现摄像头的调用,因此写下此博客备忘一、树莓派网络的配置首先,对树莓派进行网络配置,否则就无法进行软件的安装我们知道,ifconfig
本文采用OpenCV3和Python3来实现静态图片的人脸识别,采用的是Haar文件级联。首先需要将OpenCV3源代码中找到data文件夹下面的haarcas
才发现Opencv3.1.0已经发布了,刚好电脑重装系统就配置了一下,发现比Opencv2的配置过程更加简单,而且已经适配了vs2015。下载安装Opencv3
本文实例为大家分享了树莓派使用USB摄像头和motion实现监控的具体代码,供大家参考,具体内容如下一、工具1、树莓派3B2、USB摄像头二、操作步骤1、安装m
python3读取串口数据demo最近在写一个demo,zigbee串口连接树莓派,树莓派使用串口通信接受zigbee穿过来得值。其中我是用的树莓派是3代B+,