Ada ketegangan mendasar dalam desain Agen AI saat ini! Dan itu menjadi jelas hanya ketika Anda mulai membangun untuk produksi: Semakin ketat Anda menegakkan instruksi, semakin Anda mengorbankan nuansa kontekstual. Pikirkan seperti ini. Saat Anda membangun Agen yang berhadapan dengan pelanggan, beberapa instruksi memang tidak dapat dinegosiasikan. Jadi, Anda ingin Agen Anda menegakkannya secara ketat, bahkan jika itu terdengar robot saat melakukannya. Misalnya, instruksi seperti pengungkapan kepatuhan dalam keuangan atau peringatan keselamatan dalam perawatan kesehatan tidak dapat mentolerir kesalahan apa pun. Tetapi instruksi lain adalah saran yang lembut, seperti mencocokkan nada suara pelanggan atau menjaga tanggapan tetap ringkas. Ini harus memengaruhi percakapan, bukan mendominasinya. Masalahnya adalah sebagian besar arsitektur Agen tidak mengizinkan Anda mengekspresikan perbedaan ini dengan mudah. Setiap instruksi biasanya mendapatkan tingkat penegakan yang sama, jadi Anda dipaksa untuk bersikap ketat tentang segala hal dan terdengar robotik, atau fleksibel tentang segala hal dan berisiko melewatkan aturan penting. Dan tidak, Anda tidak bisa begitu saja menekankan instruksi tertentu dalam prompt itu sendiri karena kehadiran instruksi dalam prompt sudah memihak perilaku model. Penekanan hanya menambahkan lebih banyak bias di atas bias yang ada. Tapi saya menemukan kontrol terbaru Parler tentang "tingkat kritisitas" menarik (open-source dengan 18k bintang). Ini memungkinkan Anda memberi tahu agen Anda seberapa besar perhatian yang harus diberikan pada setiap instruksi. ``` agent.create_guideline( condition="Pelanggan bertanya tentang obat-obatan", action="Langsung ke penyedia layanan kesehatan",...