Cập nhật: ChatGPT, Claude và Perplexity đều sai trong cách diễn giải của họ Có rất nhiều giá trị khi làm việc với một chuyên gia pháp lý - thật ra, làm việc với một chuyên gia trong bất kỳ lĩnh vực nào có rủi ro cao! AI nghe có vẻ thông minh nhưng nó có thể (+ thực sự) mắc nhiều sai lầm trong khi vẫn tự tin.
Gergely Orosz
Gergely Orosz17:59 4 thg 1
Tôi đang tìm kiếm lời khuyên pháp lý cho một tình huống phức tạp. Cảm giác như tôi đang chờ đợi hàng tuần (trong khi một đối tác xem xét vụ việc) và phải trả một khoản tiền lớn để xác nhận những gì Claude và ChatGPT đã phân tích + về tình huống và các bài viết là đúng, và nhận được điều đó bằng văn bản + có dấu.
Tôi cho rằng điều tương tự cũng áp dụng cho kỹ thuật phần mềm, pháp lý và bất kỳ công việc tri thức nào khác. Nếu bạn muốn ai đó chịu trách nhiệm để đảm bảo mọi thứ đúng đắn - bạn không thể dựa vào AI. Hoặc nếu bạn làm vậy: tùy bạn (trong trường hợp của tôi, thiệt hại sẽ rất lớn!)
Đây cũng là lý do tại sao tôi tự tin sử dụng LLM trong các lĩnh vực mà tôi là chuyên gia: phát triển, nghiên cứu các chủ đề mà tôi viết về. Tôi có thể nhận ra ngay lập tức khi nào đó là BS hoặc sai - và thật lòng tôi không phiền! Tôi chỉ cần yêu cầu thêm để sửa chữa hoặc từ bỏ. Đối với những lĩnh vực mà tôi là người mới (như các vấn đề pháp lý): không có cách nào để nói liệu đầu ra có tốt hay xấu. Bây giờ thật lòng tôi đã tạo ra tiếng ồn cho chính mình bằng cách nghĩ rằng kết quả chắc chắn là X khi thực tế là Y…
381