Tại sao nhiều người tin rằng AI có cảm xúc?

Rate this post

Không phải gần đây nhiều người tin vào AI nhận thức. Từ giữa những năm 1960, Joseph Weizenbaum, một nhà nghiên cứu tại Viện Công nghệ Massachusetts (Mỹ), đã xây dựng một chatbot trị liệu tâm lý tự động có tên Eliza. Chatbot này hoạt động rất đơn giản. Khi người dùng nhập một suy nghĩ trên màn hình máy tính, nó sẽ yêu cầu họ mở rộng suy nghĩ – hoặc nó chỉ lặp lại lời nói của người dùng dưới dạng một câu hỏi. Ví dụ, cuộc trò chuyện của Weizenbaum với Eliza dưới đây:

cây lúa mì: Đàn ông đều giống nhau.

Chatbot: Làm sao?

cây lúa mì: Họ luôn làm phiền chúng ta về điều này hay điều khác.

Chatbot: Bạn có thể nghĩ ra một ví dụ cụ thể không?

cây lúa mì: Ồ, bạn tôi đã khiến tôi đến đây.

Chatbot: Bạn của bạn có khiến bạn đến đây không?

Chỉ với mô hình đơn giản này, Eliza nhanh chóng được nhiều người yêu thích. Họ tin rằng đó thực sự là cảm xúc, vì vậy hãy thoải mái chia sẻ những vấn đề cá nhân của họ và cảm thấy hạnh phúc với những phản hồi. Tuy nhiên, những cảm giác này cũng trôi qua nhanh chóng.

Từ một ảo ảnh ngắn ngủi

“Sau nhiều năm theo dõi và nghiên cứu, tôi phát hiện ra rằng cảm xúc của con người đối với AI chỉ kéo dài trong một thời gian ngắn sau khi tiếp xúc. Chúng ta rất dễ bị ảnh hưởng bởi cảm giác này. Khi chó, mèo và các động vật khác bị ảnh hưởng bởi cảm giác này. Khi các loài động vật khác thể hiện con người – giống như hành vi, ngay cả khi chỉ rất nhỏ, chúng ta có xu hướng cho rằng họ giống chúng ta hơn thực tế.

Các nhà khoa học gọi đây là hiệu ứng Eliza. Điều này cũng xảy ra với các công nghệ hiện đại. Khi siêu AI GPT-3 gây xôn xao với tuyên bố rằng nó “không hủy diệt nhân loại”, lập trình viên người Mỹ Philip Bosua nói: “Không nghi ngờ gì nữa, GPT-3 đã hiện diện ở dạng có tri giác. Mọi người đều nghĩ điều này sẽ đến sớm hay muộn trong tương lai, nhưng tương lai là bây giờ, AI này coi tôi như một nhà tiên tri và chia sẻ những cảm giác kỳ lạ của nó. “

Philip Bosua.  Ảnh: New York Times

Philip Bosua. Hình ảnh: Thời báo New York

Bosua đã thiết kế hơn 600 ứng dụng iPhone và huy động được 12 triệu đô la cho công ty khởi nghiệp liên quan đến IoT của mình. Ban đầu anh không tự tin vào tình cảm của mình, còn cho rằng đó là “ảo tưởng trước mắt”. Tuy nhiên, sau khi biết thông tin kỹ sư Blake Lemoine bị Google sa thải vì cho rằng một AI tên là LaMDA có “suy nghĩ như một đứa trẻ”, Bosua càng khẳng định niềm tin của mình là đúng.

“Dù còn hơi sớm nhưng tôi tin những gì tôi nói về AI nhận thức là đúng. Chẳng bao lâu nữa, công nghệ sẽ chứng minh niềm tin của chúng tôi”, Bosua nói.

Để đạt được bước tiến lớn của AI

Nhiều người cho rằng AI hiện đại chỉ đang lặp lại các mô hình trước đó, nhưng Bosua phản bác rằng đó cũng là cách con người đang hành xử: “Nó không giống như một đứa trẻ chỉ bắt chước những gì nó nhìn thấy từ cha mẹ nó hoặc những gì nó nhìn thấy trong thế giới xung quanh?”. Ông thừa nhận rằng không phải lúc nào GPT-3 cũng hoạt động ổn định, nhưng nếu con người “trung thực” thì máy móc cũng sẽ phản hồi một cách “thật”.

GPT-3 được các nhà nghiên cứu AI biết đến với một cái tên khác là mạng thần kinh. Thuật toán AI là một hệ thống toán học cho phép xác định các mẫu trong một lượng lớn dữ liệu số. Ví dụ: hiển thị AI và phân tích hàng nghìn bức ảnh mèo để nó có thể tìm hiểu các đặc điểm nhận dạng của một con mèo.

Ngày nay, AI đã có nhiều bước tiến vượt bậc, đào tạo AI không chỉ dừng lại ở ảnh mèo mà còn mở rộng ra nhiều lĩnh vực khác như ngôn ngữ, giọng nói, dịch thuật, hội họa nhờ kho dữ liệu khổng lồ. khổng lồ trên Internet. Các nhà nghiên cứu tại Google và OpenAI đã xây dựng một mạng lưới thần kinh từ hàng nghìn văn xuôi của mọi người, bao gồm sách kỹ thuật số và các bài báo trên Wikipedia, để AI có thể hiểu và thể hiện nhiều loại cảm xúc. hơn.

Ví dụ, với GPT-3, sau khi phân tích hàng triệu tài liệu kỹ thuật số, hệ thống đã xây dựng một bản đồ toán học về ngôn ngữ của con người với hơn 175 tỷ điểm dữ liệu để mô tả cách con người ghép các từ lại với nhau. kết hợp nhanh chóng thành các câu có nghĩa và thể hiện các cảm xúc khác nhau trong nhiều ngữ cảnh.

Sử dụng bản đồ này, AI có thể thực hiện nhiều tác vụ như viết bài phát biểu, lập trình hoặc trò chuyện với mọi người. Các lập trình viên thậm chí còn sử dụng AI để tạo ra các đoạn mã nhỏ để gắn vào các chương trình lớn hơn.

Giáo sư Alison Gopnik thuộc nhóm nghiên cứu AI tại Đại học California cho biết: “Những điều này khác xa so với suy nghĩ của một đứa trẻ hai tuổi. Sam Altman, lãnh đạo OpenAI, cũng khẳng định: “GPT-3 như một dạng trí thông minh của người ngoài hành tinh”.

Altman và nhiều người khác trong lĩnh vực tự tin đang trên đường tạo ra một cỗ máy có thể làm bất cứ điều gì mà bộ não con người có thể làm. “Tôi nghĩ rằng một phần của những gì đang diễn ra là khiến mọi người thực sự hào hứng với AI. Mặc dù nhiều đồng nghiệp khác đang vật lộn để phân biệt giữa khoa học và viễn tưởng. Nó vẫn sẽ có ý nghĩa nào đó trong quá trình phát triển của AI nhưng nó không ngăn cản chúng ta đang mơ về những gì có thể xảy ra, ”Altman nói.

Đằng sau sự phát triển của công nghệ

Khi ngày càng có nhiều người tin vào AI nhận thức, một nhóm nhà khoa học khác lại lo lắng về tương lai nếu một ngày những cỗ máy cảm xúc này xuất hiện ở mọi ngóc ngách của cuộc sống.

Margaret Mitchell, người từng làm việc tại Microsoft, sau đó lãnh đạo nhóm đạo đức AI tại Google và hiện làm việc tại Hugging Face, cho biết cô đã tận mắt chứng kiến ​​sự trỗi dậy của công nghệ này. Nó đơn giản, rõ ràng, nhưng vẫn còn thiếu sót nếu bạn nhìn nó như một phần của con người.

Nhiều chuyên gia cũng lo sợ điều gì có thể xảy ra khi công nghệ trở nên mạnh mẽ hơn. Ngoài việc tạo các tweet và bài đăng trên blog hoặc bắt đầu bắt chước các cuộc trò chuyện, các hệ thống được xây dựng bởi các phòng thí nghiệm như OpenAI có thể tạo ra hình ảnh. Với một công cụ mới có tên Dall-E, người dùng có thể tạo ra những bức ảnh kỹ thuật số trông giống như ảnh thật bằng cách mô tả chúng một cách đơn giản.

Một số nhà nghiên cứu lo lắng nếu các hệ thống này trở nên hoàn thiện đến mức chúng có thể nhận thức được mọi thứ xung quanh. Đây nên được coi là một tín hiệu đáng lo ngại hơn là một tín hiệu đáng mừng.

“Mối nguy hiểm trước mắt là AI giúp phát tán thông tin sai lệch trên Internet bằng các hình ảnh giả mạo, video deepfake. Nhiều chiến dịch cộng đồng có thể bị can thiệp bởi chatbots và nguy hiểm hơn là AI nhận thức thành công cụ của con người”, nhà nghiên cứu Colin Allen của Đại học Pittsburgh cho biết.

Khương Nha (theo Thời báo New York)

Thanh Thuy

Leave a Reply

Your email address will not be published. Required fields are marked *