Trí thông minh cảm xúc của ChatGPT rất cao, nhưng hóa ra nó không phù hợp với công cụ tìm kiếm

2023-04-28 08:42 0
Tin tức từ quảng châu, ngày 28 tháng 4 năm 2023 - truyền thông hoa kỳ cho biết các công cụ trí tuệ nhân tạo hiện nay dựa trên các mô hình ngôn ngữ lớn, ví dụ như ChatGPT, tốt hơn trong việc đồng cảm hơn là cung cấp thông tin thực tế chính xác. Đó là bởi vì các nhà thiết kế ưu tiên tính linh hoạt hơn là tính chính xác. Kết hợp với một cơ sở dữ liệu huấn luyện chứa đầy thông tin tình cảm, sự cạnh tranh giữa việc cấy ghép mô hình ngôn ngữ lớn vào công cụ tìm kiếm là vô ích. Đầu năm nay, giáo sư khoa học máy tính ở Princeton, Arvind Narayanan, đã phát triển giao diện giọng nói hỗ trợ ChatGPT cho con gái 4 tuổi của mình. Đây không chỉ là một thí nghiệm, mà còn bởi vì narayanan tin rằng một ngày nào đó robot trí tuệ nhân tạo sẽ trở thành một phần quan trọng trong cuộc sống của con gái mình. Con gái của narayanan tự nhiên tò mò và thường hỏi ông những câu hỏi về động vật, thực vật và cơ thể con người. Anh ấy nghĩ ChatGPT được phát triển bởi OpenAI có thể cung cấp câu trả lời hữu ích. Và ngạc nhiên thay, một khi anh ta nói với hệ thống là đang nói chuyện với trẻ em, robot chat này có khả năng đồng cảm hoàn hảo. Con gái của narayanan hỏi: "chuyện gì sẽ xảy ra khi đèn tắt?" "Khi đèn tắt, trời sẽ tối và có thể hơi đáng sợ," ChatGPT trả lời bằng giọng nói tổng hợp. "Nhưng đừng lo!" "Có rất nhiều thứ bạn có thể làm để cảm thấy an toàn và thoải mái trong bóng tối." ChatGPT sau đó đưa ra một số gợi ý về việc sử dụng đèn ngủ, và cuối cùng cảnh báo: "cảm thấy một chút sợ hãi trong bóng tối là bình thường." Rõ ràng, lời giải thích này làm con gái của narayanan cảm thấy an tâm. Microsoft và Google đang háo hức sử dụng công nghệ mô hình ngôn ngữ lớn để củng cố các công cụ tìm kiếm. Nhưng có lý do chính đáng để nghĩ rằng công nghệ này phù hợp hơn với tình cảm của con người so với việc cung cấp thông tin thực tế.

nghe có vẻ lạ. Nhưng dù là Bard của Google hay Bing mới của Microsoft, trí thông minh nhân tạo này có một loạt những lỗi thực tế khó xử khi tìm kiếm thông tin. Bard đã đưa ra những thông tin sai lệch về kính thiên văn James webb trong lần giới thiệu công khai đầu tiên của họ, và new Bing đã làm sai một đống dữ liệu tài chính.

khi một người máy chat thông minh nhân tạo được sử dụng để tìm kiếm, cái giá của một sai lầm thực tế là rất cao. Replika là một ứng dụng trí tuệ nhân tạo được tải lên hơn 5 triệu lần. Eugenia Kuyda, người sáng lập ra ứng dụng này, nói rằng khi trí tuệ nhân tạo được thiết kế để trở thành bạn tình, cái giá của việc sai lầm sẽ thấp hơn rất nhiều. Cô ấy nói, "nó không ảnh hưởng đến trải nghiệm của người dùng, và không giống như tìm kiếm, một lỗi nhỏ có thể phá vỡ niềm tin của người dùng vào sản phẩm." Margaret Mitchell, một cựu nhà nghiên cứu về trí tuệ nhân tạo tại Google, đã hợp tác với nhiều người để viết một bài báo về rủi ro của những mô hình ngôn ngữ lớn. Cô ấy nói rằng mô hình ngôn ngữ lớn đơn giản là "không phù hợp" để trở thành một công cụ tìm kiếm. Những mô hình ngôn ngữ lớn này bị lỗi bởi vì các dữ liệu được huấn luyện thường chứa thông tin sai lệch, và các mô hình không có sự thật cơ bản để xác nhận nội dung được tạo ra. Hơn nữa, các nhà thiết kế của các mô hình ngôn ngữ lớn có thể ưu tiên tính linh hoạt trong việc tạo ra nội dung hơn là tính chính xác.

đó là một trong những lý do tại SAO những công cụ này rất giỏi trong việc phục vụ người dùng. Suy cho cùng, mô hình ngôn ngữ lớn hiện nay được đào tạo từ việc lấy văn bản trên mạng, bao gồm nội dung cảm xúc được đăng trên các nền tảng truyền thông xã hội như twitter và Facebook, và nội dung đào tạo tâm lý cá nhân trên các diễn đàn như Reddit và Quora. Các dòng trong phim và phim truyền hình, các cuộc đối thoại trong tiểu thuyết, và các bài nghiên cứu về trí thông minh cảm xúc đều được đưa vào cơ sở dữ liệu huấn luyện để làm cho những công cụ này trở nên cảm thông hơn. Theo báo cáo, một số người sử dụng ChatGPT như một robot trị liệu. Một người nói họ làm thế để tránh trở thành gánh nặng cho người khác.

để kiểm tra khả năng đồng cảm của trí tuệ nhân tạo, một cuộc kiểm tra trí tuệ cảm xúc trên mạng được tiến hành trên ChatGPT. Kết quả cho thấy nó hoạt động tốt, đạt điểm tối đa về nhận thức xã hội, quản lý các mối quan hệ và tự quản lý, và chỉ thiếu một chút về nhận thức bản thân. ChatGPT đã làm tốt hơn một số người trong bài kiểm tra. Mặc dù một cái máy có thể mang lại cảm xúc chung cho con người là một điều không thực tế, nhưng nó có một vài ý nghĩa. Con người sinh ra cần kết nối xã hội, và bộ não con người cũng có khả năng phản ánh cảm xúc của người khác, điều đó có nghĩa là chúng ta có thể cảm nhận được cảm giác thấu hiểu ngay cả khi người kia không thực sự "cảm nhận" suy nghĩ của chúng ta. Nơ-ron gương trong não người được kích hoạt khi chúng ta cảm nhận được sự đồng cảm của người khác, mang đến cho chúng ta cảm giác được kết nối với nhau. Tất nhiên, sự đồng cảm là một khái niệm có nhiều khía cạnh, và để thực sự cảm nhận được cảm giác đó, con người vẫn cần phải giao tiếp với người thật. Thomas Ward, một nhà tâm lý học lâm sàng ở king's college London, đã nghiên cứu vai trò của phần mềm trong việc trị liệu tâm lý, cảnh báo người ta không nên cho rằng trí tuệ nhân tạo có thể đáp ứng đầy đủ nhu cầu về sức khoẻ tâm thần, đặc biệt là trong những trường hợp có vấn đề tâm thần nghiêm trọng. Ví dụ, robot chat có thể không hiểu được sự phức tạp cảm xúc của con người. Nói cách khác, ChatGPT hiếm khi nói "tôi không biết" vì nó được thiết kế để tự tin hơn là cẩn thận trả lời câu hỏi. Người ta cũng không nên dùng robot chat như một kênh thông thường để trút bỏ cảm xúc. Ward nói: "trong thế giới mà người máy chat được xem là một cách để loại bỏ sự cô đơn, những mối quan hệ tinh tế, như kéo xuống hoặc hiểu khi nào thì nói và khi nào thì lắng nghe, có thể biến mất".

điều này có thể dẫn đến nhiều vấn đề hơn. Nhưng hiện tại, trí tuệ nhân tạo có những kỹ năng về cảm xúc ít nhất là đáng tin cậy hơn những gì chúng có.

Source: Thông cáo báo chí doanh nghiệp
Keywords:
Thông cáo báo chí Truyền thông nước ngoài công bố thông cáo quảng cáo công bố họp báo công bố thông cáo báo chí Truyền thông nước ngoài công bố thông cáo báo chí mời truyền thông nước ngoài công bố thông cáo báo chí
Tin tức liên quan