AWS, bisnis komputasi awan Amazon, ingin menjadi tempat bagi perusahaan untuk menghosting dan menyempurnakan model AI generatif khusus mereka.

Hari ini, AWS mengumumkan peluncuran Impor Model Kustom (dalam pratinjau), sebuah fitur baru di Bedrock, rangkaian layanan AI generatif AWS yang berfokus pada perusahaan, yang memungkinkan organisasi mengimpor dan mengakses model AI generatif internal mereka sebagai API yang dikelola sepenuhnya .

Model kepemilikan perusahaan, setelah diimpor, mendapatkan manfaat dari infrastruktur yang sama dengan model AI generatif lainnya di perpustakaan Bedrock (misalnya Llama 3 dari Meta, Claude 3 dari Anthropic), termasuk alat untuk memperluas pengetahuan mereka, menyempurnakannya, dan menerapkan perlindungan untuk mengurangi bias mereka .

“Ada pelanggan AWS yang telah menyempurnakan atau membangun model mereka sendiri di luar Bedrock menggunakan alat lain,” Vasi Philomin, VP AI generatif di AWS, mengatakan kepada TechCrunch dalam sebuah wawancara. “Kemampuan Impor Model Kustom ini memungkinkan mereka membawa model milik mereka sendiri ke Bedrock dan melihatnya tepat di samping semua model lain yang sudah ada di Bedrock — dan menggunakannya dengan semua alur kerja yang juga sudah ada di Bedrock. .”

Mengimpor model khusus

Menurut baru-baru ini pemilihan dari Cnvrg, anak perusahaan Intel yang berfokus pada AI, sebagian besar perusahaan melakukan pendekatan terhadap AI generatif dengan membangun model mereka sendiri dan menyempurnakannya untuk aplikasi mereka. Berdasarkan jajak pendapat tersebut, perusahaan-perusahaan tersebut mengatakan bahwa mereka melihat infrastruktur, termasuk infrastruktur komputasi awan, sebagai hambatan terbesar dalam penerapannya.

Dengan Impor Model Kustom, AWS bertujuan untuk memenuhi kebutuhan sekaligus mengimbangi pesaing cloud. (CEO Amazon Andy Jassy diramalkan sebanyak dalam surat tahunannya baru-baru ini kepada pemegang saham.)

Selama beberapa waktu, Vertex AI, analog Google dengan Bedrock, telah memungkinkan pelanggan mengunggah model AI generatif, menyesuaikannya, dan menyajikannya melalui API. Databricks juga telah lama menyediakan perangkat untuk menghosting dan mengubah model khusus, termasuk DBRX yang baru dirilis.

Ketika ditanya apa yang membedakan Impor Model Kustom, Philomin menegaskan bahwa Impor Model Kustom — dan juga Bedrock — menawarkan pilihan penyesuaian model yang lebih luas dan mendalam dibandingkan kompetitor, seraya menambahkan bahwa “puluhan ribu” pelanggan saat ini menggunakan Bedrock.

“Nomor satu, Bedrock menyediakan beberapa cara bagi pelanggan untuk menangani model penyajian,” kata Philomin. “Yang kedua, kami memiliki banyak alur kerja seputar model ini — dan sekarang kaleng pelanggan berdiri tepat di samping semua model lain yang telah kami miliki. Hal utama yang disukai kebanyakan orang tentang hal ini adalah kemampuan untuk bereksperimen dengan berbagai model menggunakan alur kerja yang sama, dan kemudian membawanya ke produksi dari tempat yang sama.”

Jadi apa saja opsi penyesuaian model yang disinggung?

Philomin menunjuk ke Guardrails, yang memungkinkan pengguna Bedrock mengonfigurasi ambang batas untuk memfilter — atau setidaknya mencoba memfilter — keluaran model untuk hal-hal seperti perkataan yang mendorong kebencian, kekerasan, dan informasi pribadi atau perusahaan. (Model AI generatif terkenal sering keluar jalur dengan cara yang bermasalah, termasuk membocorkan informasi sensitif; AWS telah tanpa pengecualian.) Dia juga menyoroti Evaluasi Model, alat Batuan Dasar yang dapat digunakan pelanggan untuk menguji seberapa baik kinerja suatu model — atau beberapa — pada serangkaian kriteria tertentu.

Pagar Pembatas dan Evaluasi Model kini tersedia secara umum setelah pratinjau selama beberapa bulan.

Saya merasa terdorong untuk mencatat di sini bahwa Impor Model Kustom hanya mendukung tiga arsitektur model saat ini — model Flan-T5 dari Hugging Face, model Llama dari Meta, dan model Mistral — dan bahwa Vertex AI serta layanan pesaing Bedrock lainnya, termasuk alat pengembangan AI Microsoft di Azure, menawarkan fitur keselamatan dan evaluasi yang kurang lebih sebanding (lihat Keamanan Konten Azure AI, evaluasi model di Vertex dan seterusnya).

Apa adalah Namun, uniknya Bedrock adalah rangkaian model AI generatif Titan dari AWS. Dan — bertepatan dengan peluncuran Impor Model Kustom — ada beberapa perkembangan penting dalam hal ini.

Model Titan yang ditingkatkan

Titan Image Generator, model text-to-image AWS, kini tersedia secara umum setelah diluncurkan dalam pratinjau pada November lalu. Seperti sebelumnya, Titan Image Generator dapat membuat gambar baru dengan deskripsi teks atau menyesuaikan gambar yang sudah ada, misalnya menukar latar belakang gambar sambil mempertahankan subjek di dalam gambar.

Dibandingkan versi preview, Titan Image Generator di GA mampu menghasilkan gambar dengan lebih “kreativitas”, kata Philomin, tanpa menjelaskan secara detail. (Tebakan Anda mengenai maksudnya sama bagusnya dengan tebakan saya.)

Saya bertanya kepada Philomin apakah dia memiliki rincian lebih lanjut untuk dibagikan tentang bagaimana Titan Image Generator dilatih.

Pada debut model tersebut pada bulan November lalu, AWS tidak mengetahui secara pasti data mana yang digunakan dalam pelatihan Titan Image Generator. Hanya sedikit vendor yang bersedia mengungkapkan informasi tersebut; mereka melihat data pelatihan sebagai keunggulan kompetitif dan dengan demikian menyimpannya serta informasi yang berkaitan dengannya.

Perincian data pelatihan juga berpotensi menjadi sumber tuntutan hukum terkait kekayaan intelektual, yang merupakan penghambat lain untuk mengungkapkan banyak hal. Beberapa kasus yang diajukan ke pengadilan menolak pembelaan penggunaan wajar dari vendor, dengan alasan bahwa alat text-to-image mereplikasi gaya seniman tanpa izin eksplisit dari seniman dan memungkinkan pengguna untuk menghasilkan karya baru yang menyerupai karya asli seniman dan seniman tidak menerima pembayaran. .

Philomin hanya akan memberi tahu saya bahwa AWS menggunakan kombinasi data pihak pertama dan data berlisensi.

“Kami memiliki kombinasi sumber data kepemilikan, namun kami juga melisensikan banyak data,” katanya. “Kami sebenarnya membayar biaya lisensi kepada pemilik hak cipta agar dapat menggunakan data mereka, dan kami memiliki kontrak dengan beberapa di antaranya.”

Ini lebih detail dibandingkan bulan November. Namun saya merasa jawaban Philomin tidak akan memuaskan semua orang, terutama para pembuat konten dan ahli etika AI yang memperjuangkan transparansi yang lebih besar dalam hal pelatihan model AI generatif.

Sebagai pengganti transparansi, AWS mengatakan akan terus menawarkan kebijakan ganti rugi yang mencakup pelanggan jika model Titan seperti Titan Image Generator memuntahkan (yaitu mengeluarkan salinan cermin) contoh pelatihan yang berpotensi memiliki hak cipta. (Beberapa pesaing, termasuk Microsoft dan Google, menawarkan kebijakan serupa yang mencakup model pembuatan gambar mereka.)

Untuk mengatasi ancaman etika lain yang mendesak – deepfake – AWS mengatakan bahwa gambar yang dibuat dengan Titan Image Generator, seperti pada pratinjau, akan dilengkapi dengan tanda air yang “tahan terhadap kerusakan” yang tidak terlihat. Philomin mengatakan bahwa tanda air telah dibuat lebih tahan dalam rilis GA terhadap kompresi dan pengeditan serta manipulasi gambar lainnya.

Beralih ke wilayah yang tidak terlalu kontroversial, saya bertanya kepada Philomin apakah AWS — seperti Google, OpenAI, dan lainnya — sedang menjajaki pembuatan video mengingat kegembiraan seputar (dan investasi dalam) teknologi tersebut. Philomin tidak mengatakan itu AWS bukan… tapi dia tidak mau memberi isyarat lebih dari itu.

“Tentu saja, kami terus mencari kemampuan baru apa yang ingin dimiliki pelanggan, dan pembuatan video pasti akan muncul dalam percakapan dengan pelanggan,” kata Philomin. “Aku akan memintamu untuk tetap disini.”

Dalam berita terakhir terkait Titan, AWS merilis model Titan Embeddings generasi kedua, Titan Text Embeddings V2. Titan Text Embeddings V2 mengonversi teks menjadi representasi numerik yang disebut embeddings untuk mendukung aplikasi penelusuran dan personalisasi. Begitu pula dengan model Embeddings generasi pertama — namun AWS mengklaim bahwa Titan Text Embeddings V2 secara keseluruhan lebih efisien, hemat biaya, dan akurat.

“Apa yang dilakukan model Embeddings V2 adalah mengurangi penyimpanan secara keseluruhan [necessary to use the model] hingga empat kali lipat dengan tetap mempertahankan akurasi 97%,” klaim Philomin, “mengungguli model lain yang sebanding.”

Kita akan melihat apakah pengujian di dunia nyata dapat membuktikan hal tersebut.

Sumber