手機掃一掃,現(xiàn)實物體隔空「復制粘貼」進電腦,北大校友的AI新研究,現(xiàn)在變成AR酷炫應用
編者按:本文來自微信公眾號“量子位”(ID:QbitAI),作者:十三白交,36氪經(jīng)授權發(fā)布。
魔法變現(xiàn)實,酷炫又實用。
還記得兩年前,Zach King(男巫)的爆紅魔術嗎?
不僅從紙直接蹦出一個手機,還直接扔進了電腦里形成虛擬的天貓頁面。
現(xiàn)在,不用去羨慕男巫了,人人都可以把身邊的東西“扔到”電腦里,而且一部手機就能搞定!
這就是來自34歲法國設計師Cyril Diagne的最新AR黑科技——AR Cut & Paste,將身邊的事物“一鍵”復制粘貼到電腦上,整個完成時間不到10s。
比Ctrl+C和Ctrl+V還要爽快!
比如,拿手機掃一掃書上的模型圖片,再把手機對準電腦屏幕,模型瞬間就復制到了電腦。
書上的人物也不在話下。
就有網(wǎng)友說道:連這個黑發(fā)小哥的頭發(fā)都能識別出來,太神奇了。
當然,手寫的筆記,也可以復制粘貼到電腦中。
他在Github上分享了他的AR新技術,已經(jīng)狂攬7K顆小星星;而且在Reddit上分享不到14小時,就獲得了近4K的點贊量。
即使Cyril表示目前僅僅能在Photoshop中實現(xiàn),但未來——肯定會有更多不同的輸出方式。
只是現(xiàn)在,這項AR黑科技——魔法一樣的新技術,只要你想,也能復刻。
簡單四步,開啟“復制粘貼”新世界小哥非常熱心地在GitHub中,描述了AR Cut & Paste的“上手指南”。
首先要強調的是,這是一個研究原型,而不是針對消費者或者Photoshop用戶的工具。
AR Cut & Paste原型包含3個獨立的模塊。
移動應用(The mobile app)
可以查看GitHub中/app文件夾,了解如何將App部署到手機中。
本地服務器(The local server)
手機APP與Photoshop的接口。
使用屏幕點(screenpoint)找到攝像機在屏幕上指向的位置。
可查看/server文件夾,了解關于本地服務器的配置說明。
目標檢測 / 背景移除服務(The object detection / background removal service)
目前,顯著性檢測和背景移除,是委托給一個外部服務來完成。
如果直接在移動應用中使用類似DeepLap這樣的技術會簡單很多。但這還沒有在這個repo中實現(xiàn)。
第一步:配置Photoshop在Photoshop軟件首選項(Preferences)中,找到增效工具(Plug-ins)。
點擊啟用遠程連接(Remote Connection),并設置密碼。
這里需要確保一點,PS文檔中的設置要與server/src/ps.py中的設置一致,否則只會粘貼一個空層。
此外,文檔需要一些背景,如果只是白色背景,SIFT可能沒有足夠能力來做一個正確的匹配。
第二步:設置外部顯著性目標檢測服務如上所述,目前,必須使用BASNet-HTTP封裝器(需要CUDA GPU)作為外部HTTP服務,部署B(yǎng)ASNet模型。
將需要部署的服務URL來配置本地服務器。如果在本地服務的同一臺計算機上運行BASNet,請確保配置不同的端口。
第三步:配置并運行本地服務器這一步的詳細文檔,在GitHub項目中的/server文件夾中,包含“安裝”和“運行”兩個步驟。
安裝代碼如下:
virtualenv-ppython3.7venvsourcevenv/bin/activatepipinstall-rrequirements.txt
運行代碼如下:
pythonsrc/main.py\—basnet_service_ip=”http://X.X.X.X“\—basnet_service_host=”basnet-http.default.example.com”\—photoshop_password123456
其中,BASNET_SERVICE_HOST是可選的,只有在使用Knative / Cloud Run等入口網(wǎng)關在平臺上部署服務時才需要。
以及,用Photoshop遠程連接密碼替換123456。
第四步:配置并運行移動App安裝代碼如下:
npminstall
然后更新component/Server.tsx中的IP地址,使其指向運行本地服務器的計算機IP:
3:constURL=“http://192.168.1.29:8080“;
運行代碼如下:
npmstart
OK!開啟“復制粘貼”新世界,就是這么簡單!
但如果你希望“知其然更知其所以然”,別眨眼,接著往下看。
如何做到隔空「復制粘貼」?這個神奇的AR黑科技背后的主要技術,剛開始采用的是一個叫做BASNet的顯著目標檢測方法。
這篇研究入圍了CVPR 2019,而且論文一作還是位華人小哥哥——秦雪彬,已經(jīng)于今年2月在加拿大阿爾伯塔大學拿到了博士學位,碩士就讀于北京大學。
BASNet的核心框架如下圖所示,主要由2個模塊組成:
第一個模塊是預測模塊,這是一個類似于U-Net的密集監(jiān)督的Encoder-Decoder網(wǎng)絡,主要功能是從輸入圖像中學習預測saliency map。
第二個模塊是多尺度殘差細化模塊(RRM),主要功能是通過學習殘差來細化預測模塊得到的Saliency map,與groun-truth之間的殘差,從而細化出預測模塊的Saliency map。
而最近,這位設計師小哥哥在此基礎上,針對背景移除任務,采用了更新的方法。
同樣是來自秦雪彬團隊,被Pattern Recognition 2020接收,這個方法叫做U2-Net,其框架如下圖所示:
還與其它20個SOTA方法分別做了定量和定性比較實驗,在結果上都取得了不錯的結果。
在下面的定性實驗中,也可以比較明顯的看到,該方法所提取出來的目標,更加細粒度和精確。
那么,北大校友的新方法,又是如何被法國設計師Cyril Diagne搞成黑科技應用的?
兼職寫代碼的法國設計師原因無他,Cyril Diagne就是這樣一個懂程序、搞設計,關注前沿研究進展的藝術家呀。
如果你關注他的社交動態(tài),也都是天馬行空的。
是那種從“詩詞歌賦”到“人生哲學”,從“服裝設計”到AR黑科技的妙人。
Cyril Diagne,現(xiàn)居法國巴黎,除了設計師,程序員,還是洛桑藝術州立大學(ECAL)媒體于交互設計系的教授及主管。
2008年從巴黎Les Gobelins學校畢業(yè)以后,跟5位同學創(chuàng)立了藝術機構,致力于實現(xiàn)科技與藝術之間的創(chuàng)意交互,也奠定了他以后的藝術生涯,注定與科技密不可分。
2015年起,Cyril加入了谷歌文化駐巴黎的實驗室。
與此同時,他還不斷的在Gitbub上分享他的新成果。此前,他就曾在Github上發(fā)布了一些實用的小工具。
比如,一個可在Instagram頁面的照片上添加3D效果的chrome擴展程序。
在Web瀏覽器上直接用AR涂鴉你的臉。
輸入圖像轉3D照片。
總之,想法多、經(jīng)歷豐富,還懂技術和審美……
所以現(xiàn)在搞出AR復制這樣的奇妙應用,打開一扇新大門,也讓一眾網(wǎng)友服服氣氣。
也算是把北大校友小哥的牛X研究,推到了更牛X的產(chǎn)品應用入口。
雖然還只是牛刀小試,但前景卻妥妥無限可能。
你覺得這項黑科技,還能怎么用?怎么玩?