Pemahaman bahasa alami

cabang dari pengolahan bahasa alami dalam kecerdasan buatan

Pemahaman bahasa alami (Inggris: Natural language understanding) NLU atau NLI (Natural Language Interpretation[1]) ialah cabang dari pengolahan bahasa alami dalam kecerdasan buatan yang melapangkan mesin agar mengerti informasi atau data tak terstruktur. Memiliki cakupan lebih luas dibanding tugas pengolahan bahasa alami yang lain. NLU ialah sebuah AI-komplit, yang diketahui berurusan dalam menciptakan mesin secerdas manusia.[2]

Sejarah sunting

Sebuah program komputer STUDENT ditulis pada tahun 1964 oleh Daniel Bobrow atas disertasi doktoral di MIT menjadi satu percobaan paling awal diketahui dari pemahaman bahasa alami pada sebuah komputer.[3][4][5] Delapan tahun berselang, John McCarthy baru mengadakan istilah kecerdasan buatan, disertasi Bobrow (yang berjudul Natural Language Input for a Computer Problem Solving System) menunjukkan bagaimana komputer dapat mengerti masukan bahasa alami biasa kepada memecahkan permasalahan aljabar pada pesan.

Satu tahun berlanjut, pada tahun 1965, Joseph Weizenbaum di MIT menulis ELIZA sebuah program interaktif yang melaksanakan percakapan dalam bahasa Inggris pada topik apa saja, yang paling terkenal saat ELIZA menjadi ahli psikoterapi. ELIZA bekerja dengan parsing biasa dan substitusi kata kunci ke dalam rekaman ungkapan. Weizenbaum memihak dengan memberi program sebuah basis data pengetahuan dunia nyata atau yang kaya leksikon. Namun, ELIZA memperoleh popularitas mengejutkan dan dapat dilihat sebagai pelopor awal atas sistem komersial saat ini seperti yang digunakan oleh Ask.com.[6]

Tahun 1969 Roger Schank di Universitas Stanford memperkenalkan teori dependensi konseptual bagi pemahaman bahasa alami.[7] Model ini, sebagian dipengaruhi oleh karya Sydney Lamb, telah banyak digunakan oleh murid Schank di Universitas Yale, seperti Robert Wilensky, Wendy Lehnert dan Janet Kolodner.

Komponen dan arsitektur sunting

Terlepas dari pendekatan yang digunakan, kebanyakan sistem pemahaman bahasa alami menetapkan beberapa komponen umum. Sistem perlu leksikon akan bahasa, parsing dan kaidah tata bahasa kepada mengurai kalimat menjadi representasi internal. Konstruksi leksikon yang kaya dengan ontologi yang sesuai, membutuhkan upaya signifikan. Contoh: leksikon Wordnet diperlukan usaha bertahun-tahun.[8]

Catatan Kaki sunting

  1. ^ Semaan, Paul. (2012). Natural Language Generation: An Overview. Journal of Computer Science & Research (JCSCR) Vol. 1, No. 3, hlm. 50-57, June 2012
  2. ^ Pathak, Nishith. (2017). Artificial Intelligence for .NET: Speech, Language, and Search: Building Smart Applications with Microsoft Cognitive Services APIs. Apress. hlm. 71
  3. ^ Machines who think oleh Pamela McCorduck 2004 ISBN 1-56881-205-1 halaman 286
  4. ^ Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach Prentice Hall, ISBN 0-13-790395-2, http://aima.cs.berkeley.edu/, hlm. 19
  5. ^ Computer Science Logo Style: Beyond programming oleh Brian Harvey 1997 ISBN 0-262-58150-7 halaman 278
  6. ^ Weizenbaum, Joseph (1976). Computer power and human reason: from judgment to calculation W. H. Freeman and Company. hlmn. 188-189
  7. ^ Roger Schank, 1969, A conceptual dependency parser for natural language Proceedings of the 1969 conference on Computational linguistics, Sång-Säby, Sweden, hlmn 1-3
  8. ^ G. A. Miller, R. Beckwith, C. D. Fellbaum, D. Gross, K. Miller. 1990. WordNet: An online lexical database. Int. J. Lexicograph. 3, 4, pp. 235-244.