2008年1月29日 星期二

論文研讀(二)

Yao-Jen Chang, Tseng-Yun Wang, Yu-Chia Chuang, Shih-Kai Tsai, “Ontology-based Personalized Wayfinding System Using Deviation Detecting for Individuals with Cognitive Impairments” to be presented in International Conference on Convergence Information Technology 2007, Gyeongju, Korea. November 21~23, 2007. (EI)

利用即時的圖像導航來幫助精障者找到正確的路,利用 passive RFID tags 來引發行動載具中預先部屬的程式,但是只有圖像的導航並不能說是很好用的工具系統;以非精障者來說能正確的顯示出導航的圖示就很夠用了,可是對於精障者來說,正確的導航並不能保證精障者就一定能到達目的地,有太多太多的因素會使精障者在前往目的地時走失了,為了預防走失或者是在走失時,能在搜救的黃金八小時內將精障者找回,這相當重要。
論文中提到了整個判定走失進而發出警告的關鍵核心是 breadth-first traversal,利用精障者的靜態資料與動態資料做為比對而產生判斷的條件。關於這裡,我還是有很多的疑問?

1.

這張圖試由(1)這個點開始往下比對還是由最底層反追朔回去呢?
還有就是在維基百科解釋 breadth-first traversal時只提到這模型會一直比對直到找到需要的為止,這要怎麼跟論文內容做結合呢?

最後再看到實際做實驗時,受測驗的成員幾乎都能到達目的地,走失的比例很低,可見運用圖像式的導航在實際的運用成效良好。

2 則留言:

Yao Jen 提到...

Good job! You got the point.

Yao Jen 提到...

Breadth first traversal 是由(1)這個點開始往下比