Ubuntu搭建Rasa聊天機械人

2021-10-17 20:42:19 字數 1375 閱讀 5470

前段時間,有乙個專案需要搭建乙個chatbot,所以了解了一些關於rasa部署的方式。目前只是搭建了乙個基礎的chatbot,比較簡單,很有很多功能後面慢慢研究。趁著剛完成,還有印象,做一下總結,後面持續更新。

第一種方式是在docker容器中部署rasa服務。

關於什麼是docker,這裡就不做詳細的解釋了,有很多文章對這個講的非常詳細。

部署過程參考官方tutorial:

building rasa with docker

非常詳細了,所以這裡就做乙個搬運工哈哈。

第二種方式,不借助docker,而是直接在伺服器中部署。

官方quick installation

(這種方式需要先在伺服器中安裝python)

使用pip安裝rasa (需要python 3.6或以上)

pip3 install rasa
初始化乙個新的project

rasa init
然後,根據引導一步步來就行,首先需要建立乙個資料夾作為project的資料夾,然後初始化建立乙個最基礎的對話。

根據初始化之後得到的內容,訓練模型

rasa train
開啟服務

rasa run -m --cors "*"

--debug

此時,完成了rasa服務的開啟。我們可以對其進行訪問。具體訪問方式參照官網的介紹。

但是,這種部署方式有一種缺點,就是斷開與伺服器的連線後,這個服務也會自動關閉,嘗試過在docker中部署rasa-full,但是也無法一直後台執行。

最後,我們通過nohup來讓我們的服務後台執行。

上面的第4步改為:

nohup rasa run -m models --cors "*"

--debug &

通過這種方式,rasa可以作為乙個後台程序一直執行。

如果要結束該程序:

sudo netstat -ap | grep 5005
檢視占用5005埠(rasa服務埠)的程序pid是多少;

然後,

kill

-9 pid

來結束5005埠的占用,即停止rasa服務。

聊天機械人

我你好!小愛同學 小愛你好,很高興認識你!charset utf 8 css document 休息一會 sleep 1 獲取 使用者傳送的 訊息 可選 後端 對於 使用者發過來的 時候 是否 使用 可選 根據 傳送 過來的 訊息 返回 不同的內容 messagelist array 床前明月光,有...

chatbot聊天機械人環境搭建以及專案執行指南

根據專案readme檔案中的說明,專案對環境有一定的版本要求,推薦大家最好嚴格按照專案中的環境要求來安裝,包括版本也是。博主曾被版本問題虐得死去活來博主從來沒有安裝過錯誤版本。如圖上所示,該版本需要python3.5以及tensorflow1.3的環境,如果版本不匹配將會造成相容性問題,在下文中會詳...

聊天機械人ELIZA

1 在 自然語言理解 這本書的緒論中曾分析了聊天機械人eliza的設計機理,表明這是一種語言變換的技巧,而不是真正的 自然語言理解 午間休息時檢索了一下,找到了乙個它的連線 它並不如書中所舉的例子那樣的 聰明 也許因為這是第乙個聊天機械人,以及它並沒有真正採取 自然語言理解 的技術有關。下面是筆者與...