Cristin-resultat-ID: 2114218
Sist endret: 31. januar 2023, 09:46
NVI-rapporteringsår: 2022
Resultat
Vitenskapelig Kapittel/Artikkel/Konferanseartikkel
2022

An Exploration of Semi-supervised Text Classification

Bidragsytere:
  • Henrik Lien
  • Daniel Biermann
  • Fabrizio Palumbo og
  • Morten Goodwin

Bok

Engineering Applications of Neural Networks - 23rd International Conference, EAAAI/EANN 2022
ISBN:
  • 978-3-031-08222-1

Utgiver

Springer Nature
NVI-nivå 1

Serie

Communications in Computer and Information Science (CCIS)
ISSN 1865-0929
e-ISSN 1865-0937
NVI-nivå 1

Om resultatet

Vitenskapelig Kapittel/Artikkel/Konferanseartikkel
Publiseringsår: 2022
Hefte: 2022
Sider: 477 - 488
ISBN:
  • 978-3-031-08222-1
Open Access

Klassifisering

Fagfelt (NPI)

Fagfelt: IKT
- Fagområde: Realfag og teknologi

Beskrivelse Beskrivelse

Tittel

An Exploration of Semi-supervised Text Classification

Sammendrag

Good performance in supervised text classification is usually obtained with the use of large amounts of labeled training data. However, obtaining labeled data is often expensive and time-consuming. To overcome these limitations, researchers have developed Semi-Supervised learning (SSL) algorithms exploiting the use of unlabeled data, which are generally easy and free to access. With SSL, unlabeled and labeled data are combined to outperform Supervised-Learning algorithms. However, setting up SSL neural networks for text classification is cumbersome and frequently based on a trial and error process. We show that the hyperparameter configuration significantly impacts SSL performance, and the learning rate is the most influential parameter. Additionally, increasing model size also improves SSL performance, particularly when less pre-processing data are available. Interestingly, as opposed to feed-forward models, recurrent models generally reach a performance threshold as pre-processing data size increases. This article expands the knowledge on hyperparameters and model size in relation to SSL application in text classification. This work supports the use of SSL work in future NLP projects by optimizing model design and potentially lowering training time, particularly if time-restricted.

Bidragsytere

Henrik Lien

  • Tilknyttet:
    Forfatter
    ved Institutt for informasjons- og kommunikasjonsteknologi ved Universitetet i Agder

Daniel Biermann

  • Tilknyttet:
    Forfatter
    ved Institutt for informasjons- og kommunikasjonsteknologi ved Universitetet i Agder

Fabrizio Palumbo

  • Tilknyttet:
    Forfatter
    ved Institutt for journalistikk og mediefag ved OsloMet - storbyuniversitetet

Morten Goodwin

  • Tilknyttet:
    Forfatter
    ved Institutt for informasjons- og kommunikasjonsteknologi ved Universitetet i Agder
  • Tilknyttet:
    Forfatter
    ved Institutt for informasjonsteknologi ved OsloMet - storbyuniversitetet
1 - 4 av 4

Resultatet er en del av Resultatet er en del av

Engineering Applications of Neural Networks - 23rd International Conference, EAAAI/EANN 2022.

Iliadis, Lazaros; Jayne, Chrisina; Tefas, Anastasios; Pimenidis, Elias. 2022, Springer Nature. Vitenskapelig antologi/Konferanseserie
1 - 1 av 1