通過斗雞眼,將左右兩張相似的圖片疊加到一起看,就會(huì)有3D效果。
3D圖片,3D眼鏡,3D視頻等原理類似,都是通過兩眼視覺差引起腦補(bǔ)產(chǎn)生3D效果。
圖片:
?圖片來源:
一些我拍攝的真*裸眼3D照片 - 嗶哩嗶哩https://www.bilibili.com/read/cv13066106/?spm_id_from=333.999.0.0
上邊兩幅圖片在斗雞眼下,具有3D效果,那兩張圖片有什么區(qū)別嗎?
1)通過ps我們將兩張圖片疊加,然后快速反復(fù)隱藏一張圖片,就可以看到兩張圖片有角度差。
也就是拍照的時(shí)候,兩張圖片的鏡頭有移動(dòng)。
2)簡(jiǎn)單的分析,就知道如何拍照,但是如果我只有一張圖片怎么處理下游3D效果呢,開干。
單張圖片處理成裸眼3D圖片,使圖片疊加具有3D效果
先上效果圖:
斗雞眼疊加圖片,就可以看到任務(wù)和背景分層次了,因?yàn)槲覍?duì)背景和人物兩個(gè)層次處理了。
如果僅僅把一個(gè)圖片復(fù)制2次,就算斗雞眼疊加和原圖一樣效果即沒有3D效果,因?yàn)闆]有角度差。
步驟:
首先打開ps打開原圖,原圖是256*256,將人物勾選
然后復(fù)制圖層,并把圖層拉扁,即左邊位置不動(dòng),把右側(cè)往左拉(shift+鼠標(biāo)移動(dòng)右邊界)
效果:
到這里人物就處理好了,原圖和移動(dòng)后疊加圖,(導(dǎo)出時(shí)把原圖隱藏再導(dǎo)出)
接下來處理背景,
同理,前邊的人物向左壓縮,那么背景我們就反著來,把背景往右壓扁。
ctrl+shift+i可以對(duì)選取反選,就很容易找到背景。
效果:
可以看到右側(cè)門框位置不動(dòng),僅僅把背景往左拉伸了。
ps圖層如下:
原圖不用變,我們僅僅做一個(gè)256的前景右移,背景左移的圖片導(dǎo)出即可。
最終制作的人物和背景偏移圖片就好了,
將此圖片和處理后的圖片放到圖片中。
上代碼:
import org.bytedeco.ffmpeg.global.avcodec;
import org.bytedeco.ffmpeg.global.avutil;
import org.bytedeco.javacv.FFmpegFrameGrabber;
import org.bytedeco.javacv.FFmpegFrameRecorder;
import org.bytedeco.javacv.FFmpegLogCallback;
import org.bytedeco.javacv.Frame;
import org.bytedeco.javacv.Java2DFrameConverter;
import javax.imageio.ImageIO;
import java.awt.*;
import java.awt.image.BufferedImage;
import java.io.File;
//裸眼3d圖片,斗雞眼
public class TwoPic2 {
private static final String LEFT_IMAGE_PATH = "D:\\desktop\\left.png";
private static final String RIGHT_IMAGE_PATH = "D:\\desktop\\right2.png";
private static final String all = "D:\\desktop\\all.png";
//把圖片交替合并為視頻
public static void main(String[] args) throws Exception {
String outPutFile = "D:\\desktop\\all.mp4";
FFmpegLogCallback.set();
int imgWidth = 256;
int imgHeight = 256;
// FFmpegFrameRecorder:處理視頻幀
//視頻寬高最好是按照常見的視頻的寬高 16:9 或者 9:16
FFmpegFrameRecorder recorder = new FFmpegFrameRecorder(outPutFile, imgWidth, imgHeight);
//設(shè)置視頻編碼層模式
recorder.setVideoCodec(avcodec.AV_CODEC_ID_MPEG4);
//1-代表1幀/s
Double FrameRate = 30d;
recorder.setFrameRate(FrameRate);
/*
* videoBitRate這個(gè)參數(shù)很重要,當(dāng)然越大,越清晰,但最終的生成的視頻也越大。
* 查看一個(gè)資料,說均衡考慮建議設(shè)為videoWidth*videoHeight*frameRate*0.07*運(yùn)動(dòng)因子,運(yùn)動(dòng)因子則與視頻中畫面活動(dòng)頻繁程度有關(guān),如果很頻繁就設(shè)為4,不頻繁則設(shè)為1
*/
int motionFactory = 1;
recorder.setVideoBitrate((int) ((imgWidth * imgHeight * FrameRate) * motionFactory * 0.07));
//設(shè)置視頻圖像數(shù)據(jù)格式
int pixelFormat = avutil.AV_PIX_FMT_YUV420P;
recorder.setPixelFormat(pixelFormat);
String format = "mp4";
recorder.setFormat(format);
// 雙通道(立體聲)
// recorder.setAudioChannels(grabber.getAudioChannels());
recorder.setAudioChannels(2);
recorder.setAudioCodec(avcodec.AV_CODEC_ID_AAC);
recorder.start();
// 錄制視頻
Java2DFrameConverter converter = new Java2DFrameConverter();
//URL imgUrl = new URL("D:\\desktop\\test\\img1.png");
//根據(jù)每秒的幀數(shù) 記錄多少次圖片,
BufferedImage left= ImageIO.read(new File(LEFT_IMAGE_PATH));
BufferedImage right= ImageIO.read(new File(RIGHT_IMAGE_PATH));
Frame a =converter.getFrame(left);
Frame b =converter.getFrame(right);
int c=20;
while (c>=0){
c--;
for (int i = 0; i < 15; i++) {
recorder.record(converter.getFrame(ImageIO.read(new File(LEFT_IMAGE_PATH))));
recorder.record(converter.getFrame(ImageIO.read(new File(RIGHT_IMAGE_PATH))));
}
}
//
recorder.close();
}
}
這個(gè)代碼是將兩個(gè)256*256圖片放到一張圖片。
教程完畢。
通過本文章,你應(yīng)該理解了裸眼3D其實(shí)很簡(jiǎn)單。文章來源:http://www.zghlxwxcb.cn/news/detail-800655.html
歡迎大家關(guān)注下哈,javacv相關(guān)文章持續(xù)增加。文章來源地址http://www.zghlxwxcb.cn/news/detail-800655.html
到了這里,關(guān)于javacv和opencv對(duì)圖文視頻編輯-裸眼3D圖片制作的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!