Corpus search engine的問題,透過圖書和論文來找解法和答案更準確安心。 我們查出實價登入價格、格局平面圖和買賣資訊

另外網站TCSE: Ted Corpus Search Engine - yohasebe.com也說明:TCSE is a search engine specializing in exploring transcripts of TED Talk. It has been created for educational and scientific purposes.

龍華科技大學 資訊網路工程系碩士班 陳永輝所指導 陳建宇的 ADDIE教學設計模型結合人工智慧技術於IP導向範本式作業之輔助批改系統設計與研究 (2021),提出Corpus search engine關鍵因素是什麼,來自於輔助批改系統、ADDIE教學設計模型、IP導向範本式作業、人工智慧、預測模型。

而第二篇論文國立清華大學 資訊系統與應用研究所 許聞廉所指導 楊庭豪的 基於統計準則式方法強化出版物參考元數據提取方法之研究 (2021),提出因為有 參考元數據、準則式方法、自動模板生成的重點而找出了 Corpus search engine的解答。

最後網站Modifying search result ranking based on corpus search ...則補充:The search engine 1030 can include an indexing engine 1020 that actively searches a corpus (e.g., web pages, images, news articles, etc. on the Internet) to ...

接下來讓我們看這些論文和書籍都說些什麼吧:

除了Corpus search engine,大家也想知道這些:

ADDIE教學設計模型結合人工智慧技術於IP導向範本式作業之輔助批改系統設計與研究

為了解決Corpus search engine的問題,作者陳建宇 這樣論述:

經實驗分析「IP 導向範本式作業」以每位學生的座號為實驗 IP 的一部分,用以區別實驗結果。同時防止學生拷貝其他同學的作業,而正因為每份作業都是獨一無二,造成批改的工作過於繁鎖,所以為了降低批改的時間,同時提升學習成效,本論文提出了一套系統,採用 ADDIE 教學設計模型的理論,將傳統教學模式與「輔助批改系統」結合並應用神經網路,協助導師在教學的流程上,縮短時間成本以利提升教學品質。一直以來考試成績往往是最能夠證明學生對於課程的理解,但有一個問題,若要總結學生的學習狀況,都是在學期結束之後。為了能夠在學期結束前就預先知曉學生的學習狀況,本論文應用監督式學習法,透過迴歸模型進行學習成效的預測,

以學生的作業成績預測其考試成績,以此來預測學生在下一次的考試狀況,若結果不佳則可即時得知,並且能夠在接下來的施教上加強學生對於課程與考試理解。因此,本實驗在個人電腦上執行的結果顯示,輔助批改系統之執行,平均每份作業批改之耗時可縮短至 20.35 秒,影像辨識在訓練集的部分可以達到 100% 的準確率,預測模型訓練集與測試集的準確率可以分別達到 74.44% 與 64.29%。

基於統計準則式方法強化出版物參考元數據提取方法之研究

為了解決Corpus search engine的問題,作者楊庭豪 這樣論述:

出版物字串是描述資源資訊以讓其他研究者可以搜尋到該資源的一種特殊格式字串,通常用於論文最後引用資料描述以及研究者個人的著作資料整理。我們延續過去的研究基礎,提出結合統計技術與知識規則的方法,透過自動化的準則生成演算法與匹配演算法將出版物字串資料轉換為結構化資訊。出版物參考元數據提取作為學術資料結構化的基本任務,除了用於文獻檢索的精確資訊萃取以外,對於研究學術社群活動網路關係也有助益。然而文獻引用格式的變化性大,且文獻格式也以驚人速度增加,這對於出版物參考元數據提取造成障礙。在這一篇論文中,我們將針對此議題作探討,尋求方法來提升參考元數據提取的效果。此篇論文將研究方向集中在兩個議題上:(1)

整合統計技巧與知識本體之系統設計:我們建構了一套知識表達與應用的環境。該環境包含了知識管理環境與整合式方法核心模型,整合式方法核心模型結合了階層架構式的知識本體與統計方法。在簡化了標記工作的同時仍可以保有資訊提取效能。結合知識的系統架構也使得專家能夠分析各階段的錯誤,並針對關鍵處快速改善系統。我們以此環境開發了出版物參考元數據提取模型。(2) 以統計準則式方法(Statistical Principle-Based Approach, SPBA)強化出版物參考元數據提取: 過去實驗室發展了幾個系統來處理出版物參考元數據提取的任務,在發展過程中我們針對準則產生方式改進並嘗試用於不同任務,最後發展

出了SPBA。SPBA方法有三個步驟,第一步為建立知識本體(Ontology),並用這些知識對文本進行語意標注(Semantic Labeling)。第二步將前一步驟生成的樣板(Pattern)透過準則生成演算法(Principle Generation Algorithm)將樣板們整合成具有代表性的準則(Principles)。最後用準則批配演算法(Principle Matching)提供彈性比對機制以處理多變的引用格式在本論文中,我們以出版物參考元數據提取任務的公開資料集與專家編輯過的雜訊資料集來驗證SPBA方法的可用性,實驗測試了四個期刊論文引用字串資料集跟一個會議論文引用字串資料集。

我們也比較了當前技術的CRF與Bi-LSTM-CRF方法,SPBA方法在元數據提取任務的效能上在各資料集都獲得了改進。在使用較少訓練資料的實驗中也驗證了SPBA的強健性。大多數的出版物參考元數據提取研究少有提出整合機器學習與知識規則的方法,SPBA可填補此空缺。本研究的貢獻可歸納為下列幾點:第一是結合精簡標記與批配,可以減輕標記工作的負擔。第二是讓從資料中生成準則,可以減輕專家撰寫準則的負擔。第三是我們分享了新的出版物參考元數據提取任務資料集,讓後續研究可以有新的發展材料。SPBA作為一個結合知識本體與統計方法的的技術,能夠產生有可讀性的準則,也能夠讓從各步驟中理解出錯誤的原因,這種具可解釋性

的特性將有助於拓展到未來其它需要細緻處理語意的資訊萃取任務。