顯示具有 98163055_曾俞豪 標籤的文章。 顯示所有文章
顯示具有 98163055_曾俞豪 標籤的文章。 顯示所有文章

2013年6月24日 星期一

99163055_曾俞豪,99160291_鄒宛妮,WH17,week17

week17


第二階段測試成果


1. 偵測到玩家,選擇開始遊戲 (完成)
2. 進行遊戲 (完成)
3. 遊戲時間結束,結束遊戲 (完成)
4. 分數統計 (完成)

99163055_曾俞豪,99160291_鄒宛妮,WH16,week16


week16


1. 設計遊戲中的音樂
2. 設計遊戲開始、進行、結束的判斷


遊戲中的背景音樂、打到地鼠的音效、遊戲結束的音樂
找到的音樂及音效,在碰到不同狀況才播放

99163055_曾俞豪,99160291_鄒宛妮,WH15,week15

week15


1. 設計打到地鼠的分數判斷

2. 設計遊戲時間限制


(1)設定分數變數,打到地鼠才加分


(2)遊戲開始後,時間開始跑

99163055_曾俞豪,99160291_鄒宛妮,WH14,week14

WEEK14

第一階段測試成果

1. 地鼠會隨機出現 (成功)
2. 玩家可以用雙手拿著棒槌 (成功)
3. 判斷玩家可以打到地鼠 (成功)

99163055_曾俞豪,99160291_鄒宛妮,WH13,week13

week13


1. 設計背景圖片以及洞穴位置
2. 地鼠出現的位置對應到洞穴的位置
3. 地鼠會隨機從不同洞穴中出現



(1.)要先去找尋適合的背景圖片以及洞穴的位置,洞穴的位置就是地鼠要出沒的地方,所以不可以太過邊邊,要不然KINECT可能會感應不到或者其他原因

(2)地鼠要出現在洞穴的位置去調整,不能讓地鼠從不是洞穴的地方出沒才可以

(3)我們有很之不同的地鼠,我們不相固定一個洞就是同一至地鼠,這樣感覺很單調,所以我們要讓地鼠有隨機的出現在不同的洞穴,我們找尋了隨機的程式

99163055_曾俞豪,99160291_鄒宛妮,WH12,week12

week12

大目標:

1. 利用骨架偵測人的雙手,把棒槌黏在手上
2. 測試圖片位置,判斷棒槌碰到地鼠



(1)利用KINECT的骨架去偵測人的雙手在哪裡,接著利用數值讓棒槌可以隨時跟著手去移動


(2)測試每個圖片不同的位置,讓棒槌可以順利地碰到地鼠,當碰到地鼠的時候就好像打到地鼠一樣

99163055_曾俞豪,99160291_鄒宛妮,WH11,week11

week11


大目標:

1. 利用OpenNI測試骨架偵測

2. 寫程式載入設計好的圖片

(1)先找到OPENNI的軟體連接電腦,測試OPENNI可否找的到人體骨架,剛開始不知為何總是無法順利測試到人,
一下子腳的骨架無法感應,一下子是手重疊,或者是更嚴重的有時候無法偵測到人的骨架,最後我們調了遠近跟kinect的仰角,可比較順利的可以抓到骨架,軟體從安裝到偵測到骨架總共花了0.5小時

(2)再來就是比較有障礙的地方,要把設計好的圖片,寫一套程式讓圖片在螢幕中顯現,剛開始總是有許多問題,不是圖跑不出來,要不然就是沒有反應,然後看網路上各位的建議,慢慢的微調程式,終於出來了 總共花了3個小時左右

2013年4月24日 星期三

Week10_曾俞豪_HW10_期中作品企畫


遊戲名稱: 打地鼠

遊戲方式:
是利用Kinect偵測雙手的位置,使用者可以利用雙手,去打不停從地底下冒出來的地鼠,打到地鼠即可得分,挑戰在有限的時間內可以獲得多少分數。
為了增加遊戲的有趣性,另外有額外的Bonus地鼠,例如可以增加遊戲的時間的地鼠,或是將分數乘以兩倍的地鼠,可是這種地鼠出現時間比較短,比較有挑戰性。
隨著關卡增加困難度,例如洞穴形狀不同,或是會一直移動,可是這邊有個問題要解決,就是要能夠很準確的追蹤手掌的位置,不然會誤判。

方法:
1. 先用Kinect偵測雙手手掌的位置,貼上槌子的圖案,模擬使用者手上拿著槌子。
2. 畫面上會預設有九個洞穴,地鼠會隨機從每個洞穴冒出來。
3. 使用者移動雙手位置,當地鼠冒出來的時候,把雙手移到對應的洞穴上。
4. 接著利用深度值判斷,當手往前推的時候就是敲擊。
5. 設定在1分鐘之內會隨機出現不同顏色的地鼠,分別代表不同的功能。


2013年4月10日 星期三

98163055_曾俞豪_HW06

目前我所接觸過的Kinect SDK版本是1.6,這禮拜官網發布新的版本,下載Kinect SDK 1.7來測試,發現裡面有些新的功能,其中最令我感到新鮮的是Kinect Fusion,它利用深度值資訊來建模,並且在模型上色。



 從explore中可以看到,它可以將圖檔存成STL或OBJ,還可以設定伸度偵測的範圍。

98163055_曾俞豪_HW08

1. 本周進度
1.1. 其中企劃書
1.2. 專案管理介紹
1.3. Kinect/OpneNI/Processing示範

2. 熟悉半學期的成果

3. 教GitHub
3.1. 註冊


3.2. 下載

3.3. 登入



3.4. 建新專案

2013年3月20日 星期三

98163055_曾俞豪_HW05


1. 安裝kinect sdk 1.6、OpenNI2、Nite2
1.1. 設定屬性>偵錯>工作目錄>$(SolutionDir)\WorkingDir32

2. OpenNI+OpenCV
2.1. OpenCV_Viewer
2.1.1. 用OpenCV開深度圖以及彩色圖



2.2. OpenCV_Viewer2
2.2.1. 用OpenCV結合深度及彩色圖



2.3. GL3D_Point
利用深度值的點貼上彩色圖


2.4. OpenCV_User
2.4.1. 因為是用NiTE2來做,在我安裝完之後在路徑設定上有碰到一些問題,例
如NiTE.h跟NiTE.lib,我直接設定絕對路徑之後就解決了。
2.4.2. 這個範例檔抓到使用者之後,將使用者上色,並結合彩色影像,讓使用
者看到抓到的結果。



2.5. 骨架
這個範例檔也顯示出使用者的骨架資訊



2.6. 姿勢辨識
2.6.1 抓到使用者之後,可以判斷使用者的姿勢。範例裡面的PSI就是抓到使用
者把雙手舉起來的姿勢。



2.7. 手部追蹤
這個範例檔可以追蹤使用者的手部資訊,並且讓使用者可以用手來畫畫


2013年3月13日 星期三

98163055_曾俞豪_HW04


今天請到一位業界的老師來進行授課!教材 ( http://sdrv.ms/ZkgMXc )
1. 首先介紹說明體感操作以及深度感應器,接著介紹了一些體感裝置,還有許多由體感裝置開發的遊戲、或是好玩的應用。透過很多吸引人的DEMO影片,順便稍微說開發者是如何設計出這些東西的。
2. 介紹OpenNI一代跟二代的差異,介紹Microsoft Kinect for Windows SDK,下載OpenNI2之後,執行裡面的範例程式。

3. 開始寫OpenNI程式!範例程式執行,說明OpenNI的執行流程。



4. 老師也提供範例程式檔給我們練習執行。需要一些屬性的設定:
其他 Include 目錄(Additional Include Directories):$(OPENNI2_INCLUDE) / $(OPENNI2_INCLUDE64)
其他程式庫目錄(Additional Library Directories):$(OPENNI2_LIB) / $(OPENNI2_LIB64)
其他相依性(Additional Dependencies):OpenNI2.lib



98163055_曾俞豪_HW03


1. google:simple-openni, 下載Openni_nite_installer_win32(64)_0.27.zip, SimpleOpenNI-0.27.zip


2. 安裝順序:OpenNI>Nite>SenserKinect


3. 下載安裝processing的穩定版1.5.1 standard
4. SimpleOpenNI-0.27.zip裡面得的SimpleOpenNI放到在Processing 1.5.1的modes/java/libraries
Q: 可是我碰到一個很奇怪的問題,該裝的東西都弄好之後,確定有接上Kinect 跑程式時,卻出現"Can't open the depthMap, maybe the camera is not connected!"的錯誤訊息......

2013年2月27日 星期三

2013年2月20日 星期三

98163055_曾俞豪_HW01

這門課是我大學最後一學期修的課,希望可以在最後做出不錯的作品。
今天第一堂課上課,我先在網路上看一些影片找靈感,其中我找到這段影片,裡面介紹好多Kinect應用的作品,而且都很吸引人