COGMEN: COntextualized GNN based Multimodal Emotion recognitioN
COGMEN: 基于GNN的多模態(tài)情感識別技術
Paper:??https://arxiv.org/abs/2205.02455?
源代碼GitHub - Exploration-Lab/COGMEN
論文翻譯及總結可參考我另外一篇博文:多模態(tài) |COGMEN: COntextualized GNN based Multimodal Emotion recognitioN論文詳解_夏天|????的博客-CSDN博客
環(huán)境設置
- Pytorch
- python3.7版本及以上
如果安裝GPU版本,cuda版本需要11.7及以上
- pytorch_geometric
Installation — pytorch_geometric documentation (pytorch-geometric.readthedocs.io)
conmet.ml
- ?SBERT
Install SBERT
?對于已經(jīng)有pytorch的情況,我只安裝了以下命令
pip install comet_ml --upgrade #使用默認的 Python,comet_ml升級到最新版本
pip install torch_geometric
pip install -U sentence-transformers
數(shù)據(jù)預處理(第一次運行)
數(shù)據(jù)集:iemocap_4
對數(shù)據(jù)集進行處理,運行
python preprocess.py --dataset="iemocap_4"
運行后,結果如圖
開始訓練
python train.py --dataset="iemocap_4" --modalities="atv" --from_begin --epochs=55
訓練效果如圖
文章來源:http://www.zghlxwxcb.cn/news/detail-406604.html
訓練后,生成model_checkpoints目錄,如下文章來源地址http://www.zghlxwxcb.cn/news/detail-406604.html
到了這里,關于多模態(tài) | 基于GNN的多模態(tài)情感識別技術COGMEN項目復現(xiàn)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!