nghe có vẻ lạ. Nhưng dù là Bard của Google hay Bing mới của Microsoft, trí thông minh nhân tạo này có một loạt những lỗi thực tế khó xử khi tìm kiếm thông tin. Bard đã đưa ra những thông tin sai lệch về kính thiên văn James webb trong lần giới thiệu công khai đầu tiên của họ, và new Bing đã làm sai một đống dữ liệu tài chính.
khi một người máy chat thông minh nhân tạo được sử dụng để tìm kiếm, cái giá của một sai lầm thực tế là rất cao. Replika là một ứng dụng trí tuệ nhân tạo được tải lên hơn 5 triệu lần. Eugenia Kuyda, người sáng lập ra ứng dụng này, nói rằng khi trí tuệ nhân tạo được thiết kế để trở thành bạn tình, cái giá của việc sai lầm sẽ thấp hơn rất nhiều. Cô ấy nói, "nó không ảnh hưởng đến trải nghiệm của người dùng, và không giống như tìm kiếm, một lỗi nhỏ có thể phá vỡ niềm tin của người dùng vào sản phẩm." Margaret Mitchell, một cựu nhà nghiên cứu về trí tuệ nhân tạo tại Google, đã hợp tác với nhiều người để viết một bài báo về rủi ro của những mô hình ngôn ngữ lớn. Cô ấy nói rằng mô hình ngôn ngữ lớn đơn giản là "không phù hợp" để trở thành một công cụ tìm kiếm. Những mô hình ngôn ngữ lớn này bị lỗi bởi vì các dữ liệu được huấn luyện thường chứa thông tin sai lệch, và các mô hình không có sự thật cơ bản để xác nhận nội dung được tạo ra. Hơn nữa, các nhà thiết kế của các mô hình ngôn ngữ lớn có thể ưu tiên tính linh hoạt trong việc tạo ra nội dung hơn là tính chính xác.
đó là một trong những lý do tại SAO những công cụ này rất giỏi trong việc phục vụ người dùng. Suy cho cùng, mô hình ngôn ngữ lớn hiện nay được đào tạo từ việc lấy văn bản trên mạng, bao gồm nội dung cảm xúc được đăng trên các nền tảng truyền thông xã hội như twitter và Facebook, và nội dung đào tạo tâm lý cá nhân trên các diễn đàn như Reddit và Quora. Các dòng trong phim và phim truyền hình, các cuộc đối thoại trong tiểu thuyết, và các bài nghiên cứu về trí thông minh cảm xúc đều được đưa vào cơ sở dữ liệu huấn luyện để làm cho những công cụ này trở nên cảm thông hơn. Theo báo cáo, một số người sử dụng ChatGPT như một robot trị liệu. Một người nói họ làm thế để tránh trở thành gánh nặng cho người khác.
để kiểm tra khả năng đồng cảm của trí tuệ nhân tạo, một cuộc kiểm tra trí tuệ cảm xúc trên mạng được tiến hành trên ChatGPT. Kết quả cho thấy nó hoạt động tốt, đạt điểm tối đa về nhận thức xã hội, quản lý các mối quan hệ và tự quản lý, và chỉ thiếu một chút về nhận thức bản thân. ChatGPT đã làm tốt hơn một số người trong bài kiểm tra. Mặc dù một cái máy có thể mang lại cảm xúc chung cho con người là một điều không thực tế, nhưng nó có một vài ý nghĩa. Con người sinh ra cần kết nối xã hội, và bộ não con người cũng có khả năng phản ánh cảm xúc của người khác, điều đó có nghĩa là chúng ta có thể cảm nhận được cảm giác thấu hiểu ngay cả khi người kia không thực sự "cảm nhận" suy nghĩ của chúng ta. Nơ-ron gương trong não người được kích hoạt khi chúng ta cảm nhận được sự đồng cảm của người khác, mang đến cho chúng ta cảm giác được kết nối với nhau. Tất nhiên, sự đồng cảm là một khái niệm có nhiều khía cạnh, và để thực sự cảm nhận được cảm giác đó, con người vẫn cần phải giao tiếp với người thật. Thomas Ward, một nhà tâm lý học lâm sàng ở king's college London, đã nghiên cứu vai trò của phần mềm trong việc trị liệu tâm lý, cảnh báo người ta không nên cho rằng trí tuệ nhân tạo có thể đáp ứng đầy đủ nhu cầu về sức khoẻ tâm thần, đặc biệt là trong những trường hợp có vấn đề tâm thần nghiêm trọng. Ví dụ, robot chat có thể không hiểu được sự phức tạp cảm xúc của con người. Nói cách khác, ChatGPT hiếm khi nói "tôi không biết" vì nó được thiết kế để tự tin hơn là cẩn thận trả lời câu hỏi. Người ta cũng không nên dùng robot chat như một kênh thông thường để trút bỏ cảm xúc. Ward nói: "trong thế giới mà người máy chat được xem là một cách để loại bỏ sự cô đơn, những mối quan hệ tinh tế, như kéo xuống hoặc hiểu khi nào thì nói và khi nào thì lắng nghe, có thể biến mất".
điều này có thể dẫn đến nhiều vấn đề hơn. Nhưng hiện tại, trí tuệ nhân tạo có những kỹ năng về cảm xúc ít nhất là đáng tin cậy hơn những gì chúng có.