基于邊緣檢測的圖像旋轉校正模型:
該模型首先使用邊緣檢測算法對圖像進行邊緣檢測,然后找到邊緣上的直線,并計算直線的角度。最后通過旋轉圖像來校正圖像的角度。
import cv2
import numpy as np
# 加載圖像
img = cv2.imread('skewed_image.jpg')
# 轉換為灰度圖像
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
# 使用Canny算子查找邊緣
edges = cv2.Canny(gray, 50, 150, apertureSize=3)
# 查找直線并計算旋轉角度
lines = cv2.HoughLines(edges, 1, np.pi/180, 100)
angle = np.mean(lines[:, 0, 1]) * 180 / np.pi - 90
# 旋轉圖像進行校正
(rows, cols) = img.shape[:2]
center = (cols / 2, rows / 2)
M = cv2.getRotationMatrix2D(center, angle, 1.0)
result = cv2.warpAffine(img, M, (cols, rows), flags=cv2.INTER_CUBIC, borderMode=cv2.BORDER_REPLICATE)
# 顯示圖像
cv2.imshow('Original', img)
cv2.imshow('Corrected', result)
cv2.waitKey(0)
cv2.destroyAllWindows()
基于Hough變換的圖像旋轉校正模型:
該模型基于Hough變換算法來檢測圖像中的直線,并計算直線角度,然后使用旋轉矩陣將圖像旋轉到正確的角度。
import cv2
import numpy as np
# 加載圖像
img = cv2.imread('skewed_image.jpg')
# 轉換為灰度圖像
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
# 使用Canny算子查找邊緣
edges = cv2.Canny(gray, 50, 150, apertureSize=3)
# 進行Hough變換,查找直線
lines = cv2.HoughLines(edges, 1, np.pi/180, 200)
# 找到最長的線
max_len = 0
for line in lines:
rho, theta = line[0]
a = np.cos(theta)
b = np.sin(theta)
x0 = a * rho
y0 = b * rho
x1 = int(x0 + 1000 * (-b))
y1 = int(y0 + 1000 * (a))
x2 = int(x0 - 1000 * (-b))
y2 = int(y0 - 1000 * (a))
length = np.sqrt((x1 - x2)**2 + (y1 - y2)**2)
if length > max_len:
max_len = length
longest_line = [x1, y1, x2, y2]
# 計算旋轉角度
dx = longest_line[2] - longest_line[0]
dy = longest_line[3] - longest_line[1]
angle = np.degrees(np.arctan2(dy, dx))
# 進行旋轉校正
rows, cols = img.shape[:2]
rotation_matrix = cv2.getRotationMatrix2D((cols/2, rows/2), angle, 1)
result = cv2.warpAffine(img, rotation_matrix, (cols, rows), flags=cv2.INTER_CUBIC)
# 顯示圖像
cv2.imshow('Original Image', img)
cv2.imshow('Rotated Image', result)
cv2.waitKey(0)
cv2.destroyAllWindows()
基于模板匹配的圖像旋轉校正模型:
該模型使用圖像的局部特征來找到最優(yōu)旋轉角度,其主要思想是通過旋轉圖像來將其與預定義的模板進行匹配,并找到最小的匹配差異度,從而確定最優(yōu)旋轉角度。
import cv2
import numpy as np
# 加載圖像和模板
img = cv2.imread('skewed_image.jpg')
template = cv2.imread('template.jpg', 0)
# 計算模板的旋轉矩陣
(h, w) = template.shape[:2]
center = (w // 2, h // 2)
M = cv2.getRotationMatrix2D(center, 45, 1.0)
# 旋轉模板并計算SIFT特征點
template = cv2.warpAffine(template, M, (w, h))
sift = cv2.SIFT_create()
(kps, descs) = sift.detectAndCompute(template, None)
# 計算圖像的SIFT特征點并進行匹配
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
(kps2, descs2) = sift.detectAndCompute(gray, None)
bf = cv2.BFMatcher()
matches = bf.match(descs, descs2)
# 找到最優(yōu)旋轉矩陣
matches = sorted(matches, key=lambda x:x.distance)
src_pts = np.float32([kps[m.queryIdx].pt for m in matches])
dst_pts = np.float32([kps2[m.trainIdx].pt for m in matches])
M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0)
theta = -np.degrees(np.arctan2(M[0, 1], M[0, 0]))
# 旋轉圖像進行校正
(rows, cols) = img.shape[:2]
center = (cols / 2, rows / 2)
M = cv2.getRotationMatrix2D(center, theta, 1.0)
result = cv2.warpAffine(img, M, (cols, rows), flags=cv2.INTER_CUBIC, borderMode=cv2.BORDER_REPLICATE)
# 顯示圖像
cv2.imshow('Original', img)
cv2.imshow('Corrected', result)
cv2.waitKey(0)
cv2.destroyAllWindows()
基于特征點匹配的圖像旋轉校正模型:
該模型首先使用特征點檢測算法來檢測圖像中的關鍵點,并計算其描述子。然后,通過計算兩個圖像的特征點之間的距離和實現(xiàn)旋轉角度的估計和校正。
import cv2
import numpy as np
# 加載圖像
img = cv2.imread('skewed_image.jpg')
# 使用SIFT特征點檢測算法檢測圖像的關鍵點
sift = cv2.SIFT_create()
kp1, des1 = sift.detectAndCompute(img,None)
# 旋轉圖像并使用同樣的方法檢測關鍵點
[h, w] = img.shape[:2]
M = cv2.getRotationMatrix2D((w/2,h/2),45,1.0)
img_rot = cv2.warpAffine(img,M,(w,h))
kp2, des2 = sift.detectAndCompute(img_rot,None)
# 匹配關鍵點并計算旋轉角度
bf = cv2.BFMatcher()
matches = bf.knnMatch(des1, des2, k=2)
good = []
for m, n in matches:
if m.distance < 0.5 * n.distance:
good.append(m)
src_pts = np.float32([kp1[m.queryIdx].pt for m in good]).reshape(-1, 1, 2)
dst_pts = np.float32([kp2[m.trainIdx.pt for m in good]).reshape(-1, 1, 2)
M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0)
theta = -np.degrees(np.arctan2(M[0, 1], M[0, 0]))
#旋轉圖像進行校正
(rows, cols) = img.shape[:2]
center = (cols / 2, rows / 2)
M = cv2.getRotationMatrix2D(center, theta, 1.0)
result = cv2.warpAffine(img, M, (cols, rows), flags=cv2.INTER_CUBIC, borderMode=cv2.BORDER_REPLICATE)
#顯示圖像
cv2.imshow('Original', img)
cv2.imshow('Corrected', result)
cv2.waitKey(0)
cv2.destroyAllWindows()
以上兩種方法的實現(xiàn)示例,使用OpenCV中的函數(shù)和庫實現(xiàn)。其中基于模板匹配的方法旋轉圖像到與模板最佳匹配的角度,而基于特征點匹配的方法檢測圖像和旋轉后的圖像之間的關鍵點差異,并估計出最佳的旋轉角度進行校正。這兩個方法都可以在一定程度上對圖像進行旋轉校正,但需要注意的是,如果圖像中的旋轉角度過大或存在嚴重的非線性扭曲,則可能會降低這兩種方法的效果。因此,在選擇適當?shù)膱D像旋轉校正方法時,應考慮到具體應用場景,以及旋轉程度和所需校正的精度等因素。
上述四種模型都可以用于圖像旋轉校正,但它們的優(yōu)點和缺點各不相同,需要根據(jù)具體應用場景選擇合適的模型。
https://www.python.org/downloads/windows/
ddddocr作者的旋轉驗證碼識別模型Rotate-Captcha-Crack
Rotate-Captcha-Crack
https://github.com/Starry-OvO/rotate-captcha-crack
中文 | English
CNN預測圖片旋轉角度,可用于破解百度旋轉驗證碼
測試效果:
本倉庫實現(xiàn)了三類模型:
名稱 | Backbone | 損失函數(shù) | 跨域測試誤差(越小越好) | 大?。∕B) |
---|---|---|---|---|
RotNet | ResNet50 | 交叉熵 | 1.1548° | 92.7 |
RotNetR | RegNetY 3.2GFLOPs | 交叉熵 | 1.2825° | 69.8 |
RCCNet_v0_5 | RegNetY 3.2GFLOPs | MSE+余弦修正 | 42.7774° | 68.7 |
RotNet
為d4nst/RotNet
的PyTorch實現(xiàn)。RotNetR
僅在RotNet
的基礎上替換了backbone,并將分類數(shù)減少至180。其在谷歌街景數(shù)據(jù)集上訓練64個epoch(耗時2小時)得到的平均預測誤差為1.2825°
。目前RCCNet_v0_5
效果較差,推薦使用RotNetR
跨域測試使用谷歌街景/Landscape-Dataset作為訓練集,百度驗證碼作為測試集(特別鳴謝@xiangbei1997)
演示用到的百度驗證碼圖片來自RotateCaptchaBreak
體驗已有模型
準備環(huán)境
-
支持CUDA10+的GPU(如需訓練則顯存還需要不少于4G)
-
確保你的
Python
版本>=3.8 <3.11
-
確保你的
PyTorch
版本>=1.11
-
拉取代碼并安裝依賴庫
git clone --depth=1 https://github.com/Starry-OvO/rotate-captcha-crack.git
cd ./rotate-captcha-crack
pip install .
注意不要漏了install
后面那個.
- 或者,使用虛擬環(huán)境
git clone --depth=1 https://github.com/Starry-OvO/rotate-captcha-crack.git
python -m venv ./rotate-captcha-crack --system-site-packages
cd ./rotate-captcha-crack
# 根據(jù)你的Shell類型挑選一個合適的腳本激活虛擬環(huán)境 例如./Script/Active.ps1
python -m pip install -U pip
pip install .
下載預訓練模型
下載Release中的壓縮包并解壓到./models
文件夾下
文件目錄結構類似./models/RCCNet_v0_5/230228_20_07_25_000/best.pth
本項目仍處于beta階段,模型名稱會頻繁發(fā)生變更,因此出現(xiàn)任何FileNotFoundError
請先嘗試用git回退到對應的tag
輸入一個驗證碼圖像并查看旋轉效果
如果你的系統(tǒng)沒有GUI,嘗試把debug方法從顯示圖像改成保存圖像
python test_captcha.py
使用http服務端
- 安裝額外依賴
pip install aiohttp httpx[cli]
- 運行服務端
python server.py
- 另開一命令行窗口發(fā)送圖像
httpx -m POST http://127.0.0.1:4396 -f img ./test.jpg
訓練新模型
準備數(shù)據(jù)集
-
我這里直接扒的谷歌街景和Landscape-Dataset,你也可以自己收集一些風景照并放到一個文件夾里,圖像沒有尺寸要求
-
在
train.py
里配置dataset_root
變量指向裝有圖片的文件夾 -
不需要手動標注,dataset會在讀取圖片的同時自動完成矩形裁剪、縮放旋轉等工作文章來源:http://www.zghlxwxcb.cn/news/detail-478836.html
訓練
python train_RotNetR.py
在測試集上驗證模型
python test_RotNetR.py
相關文章
吾愛破解 - 簡單聊聊旋轉驗證碼攻防文章來源地址http://www.zghlxwxcb.cn/news/detail-478836.html
到了這里,關于如何將圖片恢復水平位置?圖片旋轉矯正方法大全,ddddocr作者基于RotNet的旋轉驗證碼深度學習識別模型Rotate-Captcha-Crack的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!