Greek-RoBERTas: Two Language Models for Greek

Πτυχιακή Εργασία uoadl:3236818 184 Αναγνώσεις

Μονάδα:
Τμήμα Πληροφορικής & Τηλεπικοινωνιών
Πληροφορική
Ημερομηνία κατάθεσης:
2022-10-12
Έτος εκπόνησης:
2022
Συγγραφέας:
ΙΓΓΛΕΖΟΥ ΜΥΡΤΩ
Στοιχεία επιβλεπόντων καθηγητών:
ΚΟΥΜΠΑΡΑΚΗΣ ΜΑΝΟΛΗΣ, ΚΑΘΗΓΗΤΗΣ, ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ, ΕΘΝΙΚΟ ΚΑΙ ΚΑΠΟΔΙΣΤΡΙΑΚΟ ΠΑΝΑΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ
Πρωτότυπος Τίτλος:
Greek-RoBERTas: Two Language Models for Greek
Γλώσσες εργασίας:
Αγγλικά
Ελληνικά
Μεταφρασμένος τίτλος:
Greek-RoBERTas: Δύο Γλωσσικά Μοντέλα για τα Ελληνικά
Περίληψη:
Το μοντέλο BERT αποτελεί μια από τις μεγαλύτερες συνεισφορές στον τομέα της επεξεργασίας φυσικής γλώσσας και πολλές εφαρμογές βασισμένες σε αυτό χρησιμοποιούνται όλο και περισσότερο. Κάθε μέρα δημιουργούνται όλο και περισσότερα μοντέλα βασισμένα σε αυτή την τεχνολογία και σε διάφορες παραλλαγές της. Το RoBERTa αποτελεί μία από αυτές και είναι και το κύριο εργαλείο στο οποίο βασίστηκε αυτή η πτυχιακή εργασία. Παρουσιάζουμε λοιπόν δύο μοντέλα βασισμένα σε αυτή την αρχιτεκτονική, εκπαιδευμένα σε ελληνικά δεδομένα. Εξετάζοντας την απόδοσή τους και συγκρίνοντάς τα με το ήδη υπάρχον μοντέλο GREEK-BERT σε δοκιμές Part-of-Speech Tagging και Named Entity Recognition, καταλήγουμε πως ένα από αυτά που δημιουργήσαμε έχει τις καλύτερες επιδόσεις.
Κύρια θεματική κατηγορία:
Τεχνολογία – Πληροφορική
Λέξεις-κλειδιά:
RoBERTa, BERT, Βαθιά Μάθηση, Νευρωνικά Δίκτυα, Επεξεργασία Φυσικής Γλώσσας
Ευρετήριο:
Ναι
Αρ. σελίδων ευρετηρίου:
4
Εικονογραφημένη:
Ναι
Αρ. βιβλιογραφικών αναφορών:
35
Αριθμός σελίδων:
42