LaMDA A.I. Meningkatkan Pemahaman Percakapan

model LaMDA
Google I/O
Sundar Pichai berdiri di depan logo Google di Google IO 2021.
Kisah ini adalah bagian dari liputan lengkap Google I/O kami

Kecerdasan buatan telah mencapai kemajuan luar biasa dalam memahami kata-kata dan bahkan mampu menerjemahkannya ke dalam bahasa lain. Google telah membantu membuka jalan ke sini dengan alat luar biasa seperti penerjemah Google dan, baru-baru ini, dengan perkembangannya Transformator model pembelajaran mesin. Namun bahasa itu rumit — dan masih banyak pekerjaan yang harus dilakukan untuk membangun AI. yang benar-benar memahami kita.

Video yang Direkomendasikan

Model Bahasa untuk Aplikasi Dialog

Pada Google I/O hari Selasa, raksasa pencarian ini mengumumkan kemajuan signifikan dalam bidang ini dengan model bahasa baru itu disebut LaMDA. Singkatan dari Model Bahasa untuk Aplikasi Dialog, ini adalah A.I. alat bahasa yang diklaim Google lebih unggul dalam memahami konteks dalam percakapan. Seperti yang diungkapkan oleh CEO Google Sundar Pichai, ini mungkin merupakan cara yang cerdas untuk menguraikan percakapan seperti “Bagaimana cuaca hari ini?” “Ini mulai terasa seperti musim panas. Saya mungkin makan siang di luar.” Ini sangat masuk akal sebagai dialog manusia, namun akan membingungkan banyak A.I. sistem mencari jawaban yang lebih literal.

LaMDA memiliki pengetahuan superior tentang konsep-konsep yang dipelajari yang dapat disintesis dari data pelatihannya. Pichai mencatat bahwa tanggapan tidak pernah mengikuti jalur yang sama dua kali, sehingga percakapan terasa kurang sesuai naskah dan lebih responsif dan alami.

Terkait

  • Bisakah A.I. mengalahkan insinyur manusia dalam merancang microchip? Google berpendapat demikian
  • Perangkat yang dapat dikenakan di Google I/O 2021: Segala sesuatu yang baru diumumkan hari ini
  • Inisiatif untuk energi bersih 24/7 diumumkan di Google I/O 2021

Meskipun masih dalam tahap penelitian dan pengembangan, Google diduga menggunakannya secara internal untuk mengeksplorasi interaksi baru. Selama Google I/O, ini menunjukkan beberapa pertukaran baru-baru ini dengan dialog percakapan yang tidak terlalu formal dan lebih santai dibandingkan cara biasa kita berinteraksi dengan alat chatbot seperti Asisten Google. Agak trippily, ini adalah percakapan dengan bot yang berpura-pura menjadi planet kerdil Pluto dan pesawat kertas, menjawab pertanyaan tentang diri mereka sendiri. Demo tersebut untuk menunjukkan bagaimana model mampu melakukan percakapan mendalam tentang topik apa pun.

Pada akhirnya, LaMDA akan menghasilkan Google A.I. alat yang lebih baik dalam mengikuti percakapan manusia dalam konteksnya. Pichai secara khusus memanggil Asisten Google dan mencari domain yang akan berguna.

Membangun model multimoda

Dia juga mencatat bahwa teknologi ini digunakan untuk membuat model multimodal yang dapat memahami gambar, teks, audio, dan video. Ini dapat digunakan untuk, misalnya, bertanya Google Peta untuk merencanakan perjalanan dengan pemandangan pegunungan yang indah, menggabungkan pengetahuannya tentang audio, teks dan gambar. Itu juga dapat digunakan untuk pencarian video superior. Salah satu contoh lainnya mungkin meminta untuk beralih ke bagian video yang menampilkan singa mengaum saat matahari terbenam.

Rekomendasi Editor

  • Google Smart Canvas mendapatkan integrasi yang lebih mendalam antar aplikasi
  • Chromebook di Google I/O 2021: Semua hal baru yang diumumkan
  • Stadia tidak hadir selama keynote I/O Google yang berdurasi 2 jam
  • Google memamerkan Quantum A.I. Kampus
  • Android di Google I/O 2021: Semuanya baru

Tingkatkan gaya hidup AndaTren Digital membantu pembaca mengawasi dunia teknologi yang bergerak cepat dengan semua berita terkini, ulasan produk yang menyenangkan, editorial yang berwawasan luas, dan cuplikan unik.