Những lợi ích và cạm bẫy của ChatGPT đối với nhà báo

MARINA CEMAJ HOCHSTEIN (IJNET) 05/02/2023 00:06

Ưu điểm và hạn chế của ChatGPT đối với nhà báo được bà Jenna Burrell, Giám đốc nghiên cứu của Data & Society trình bày tại Diễn đàn ICFJ Pamela Howard về Báo cáo Khủng hoảng toàn cầu

Những lợi ích của ChatGPT đối với báo chí

ChatGPT có thể đơn giản hóa các khái niệm

Một trong những nhiệm vụ quan trọng nhất đối với các nhà báo là đơn giản hóa các chủ đề phức tạp cho độc giả nói chung. ChatGPT làm cho điều này dễ dàng hơn, Burrell nói. Việc sử dụng mô hình ngôn ngữ cho phép các nhà báo trích rút tóm tắt hoặc một phần của bài báo học thuật vào ChatGPT và yêu cầu phần mềm đơn giản hóa nó. Một nhà báo có thể sử dụng công cụ này để hiểu rõ hơn về một bài viết hoặc ý tưởng trước khi phỏng vấn tác giả của tác phẩm.

ChatGPT cũng hữu ích cho những người nói tiếng Anh không phải là tiếng mẹ đẻ. Tính năng đơn giản hóa của nó cho phép những người nói tiếng Anh bản xứ có thể hiểu tiếng Anh cơ bản “dịch” bất kỳ tác phẩm nào sang dạng cơ bản hơn. Điều này đặc biệt hữu ích cho các chủ đề sử dụng ngôn ngữ phức tạp hoặc chuyên ngành như khoa học hoặc kinh tế. Hiện tại, điều này chỉ hoạt động bằng tiếng Anh.

ChatGPT có thể hỗ trợ các câu hỏi cho các cuộc phỏng vấn

Nhà báo có thể sử dụng ChatGPT để chuẩn bị cho các cuộc phỏng vấn. Bạn có thể liệt kê các câu hỏi mà bạn có trong đầu cho một chủ đề phỏng vấn và phần mềm sẽ tạo thêm các câu hỏi được mô phỏng theo chúng. Phần mềm này cũng có thể sao chép một cuộc phỏng vấn trước đó hoặc một bài báo được viết bởi người được phỏng vấn và phát triển các câu hỏi về chủ đề đó.

ChatGPT có thể được sử dụng làm trình chỉnh sửa phụ. Các nhà báo có thể nhập bài viết của họ để xem xét lần cuối trước khi gửi chúng cho biên tập viên của họ, chẳng hạn như bằng cách yêu cầu ChatGPT chỉnh sửa bài viết ở định dạng cụ thể như kiểu AP. Tuy nhiên, các nhà báo vẫn nên xem xét và kiểm tra tính thực tế những thay đổi mà ChatGPT thực hiện để đảm bảo rằng không có thông tin nào được thêm vào là sai.

Bạn không thể luôn tin tưởng vào kết quả của nó

Các nhà báo nên biết về lỗ hổng lớn của ChatGPT: nó không thể tin cậy được. ChatGPT được đào tạo bằng cách nhập toàn bộ dữ liệu trên internet và nó phản hồi các lời nhắc bằng cách đưa ra dự đoán về câu trả lời có khả năng xảy ra nhất cho các truy vấn. Bằng cách sử dụng mô hình này, đôi khi nó tạo ra một câu trả lời không thực sự chính xác.

Ví dụ: khi Burell hỏi ChatGPT về các chuyên gia trong lĩnh vực khoa học dữ liệu, nó đã tạo ra một danh sách các học giả nổi tiếng nghiên cứu về chủ đề này. Tuy nhiên, khi câu hỏi được sửa đổi để hỏi các chuyên gia người Ghana về khoa học dữ liệu, không có cái tên nào trong số đó thực sự tồn tại khi được kiểm tra.

Burrell cảnh báo các nhà báo lưu ý về việc ChatGPT không có khả năng “lấp đầy khoảng trống dữ liệu”. ChatGPT sẽ không trả lời câu hỏi bằng cách nói rằng nó không biết câu trả lời; thay vào đó, nếu dữ liệu mà nó có không cung cấp câu trả lời, nó sẽ chỉ tạo ra một câu trả lời. Điều này có thể đặc biệt khó giải quyết ở những khu vực mà trước đây Internet không có dữ liệu. Burell nói: “Bởi vì phải mất một chút từ chỗ này đến chỗ khác, nên nó thường tạo ra kết quả hoàn toàn không chính xác và rất khó để nhận ra khi nào nó không chính xác.

ChatGPT cũng có vấn đề về việc sao chép thành kiến mà nó được xây dựng trên đó. Phần mềm được xây dựng bằng cách sử dụng một lượng lớn dữ liệu, nhưng công cụ này không thể “học” – nó chỉ có thể tái tạo và lấy lại dữ liệu mà nó đã có.

Vì ChatGPT được xây dựng bằng cách thu thập lượng thông tin khổng lồ từ Internet nên thông tin mà nó cung cấp sẽ sai lệch như thông tin mà nó được đào tạo. Khi các nhà báo sử dụng ChatGPT, họ không những phải kiểm tra kỹ nội dung mà nó trình bày mà còn tiếp cận với những người khác có quan điểm khác, bao gồm cả những người có thể chống lại thành kiến tích hợp sẵn của ChatGPT.

“ChatGPT hút mọi thứ trên internet; những gì bạn nhận được từ nó phản ánh sự sai lệch của toàn bộ internet,” Burell nói.

Tương lai của ChatGPT trong ngành báo chí

ChatGPT vẫn là một công cụ mới và vẫn còn câu hỏi về cách công ty mẹ của nó, OpenAI, sẽ định hình mô hình kinh doanh của nó. Vẫn chưa rõ OpenAI sẽ kiếm tiền bằng cách nào, liệu nó có hợp tác với Microsoft và công cụ tìm kiếm Bing hay không, hay liệu nó có tạo ra mô hình quảng cáo của riêng mình giống như những mô hình mà Google và Bing hiện đang sử dụng hay không. Mặc dù công cụ này hiện miễn phí và mở cho tất cả mọi người, bất kỳ thay đổi nào trong việc kiếm tiền có thể đặt ra thêm câu hỏi về luật bản quyền. Ví dụ: mặc dù ChatGPT được đào tạo về mọi bài báo mà các nhà báo đã viết, nhưng các tác giả không được đền bù hoặc trả tiền cho đóng góp của họ.

Burell lưu ý rằng đây có thể là một vấn đề lớn hơn với các công cụ như DALL-E, một công cụ của OpenAI khác, tạo ra hình ảnh từ văn bản. Ngày nay, các nghệ sĩ kiếm sống từ nghệ thuật mà họ tạo ra đang chứng kiến phong cách của họ bị DALL-E sao chép mà không có tín dụng hay thù lao. Burrell nói: “Mọi thứ bạn đã viết với tư cách là một nhà báo được công khai ở đó đều được đưa vào công cụ của OpenAI. “Bạn có tác phẩm có bản quyền mà bạn đã xuất bản với tư cách là một nhà báo và bạn không được trả tiền cái đó. Tôi không nghĩ luật bản quyền thực sự phù hợp với nhiệm vụ vào lúc này.”

Ở dạng ChatGPT tồn tại ngày nay, Burrell khuyến nghị các nhà báo nên sử dụng nó như một công cụ đồng thời nhận ra những hạn chế của nó. Mặc dù mô hình này có thể giúp các nhà báo viết nhanh hơn khi họ đến hạn chót, truyền cảm hứng cho họ khi họ gặp khó khăn trong việc sáng tạo và là một bước bổ sung để đảm bảo tác phẩm của họ được viết hay và cách điệu, nhưng nó luôn phải được sử dụng với sự giám sát chặt chẽ của con người. Mọi thứ nó nói vẫn phải được kiểm tra kỹ về độ chính xác và nguồn tin.

Đối với các nhà báo lo lắng rằng bài viết của ChatGPT sẽ bị coi là báo chí, Burrell lưu ý rằng bài viết của họ thiếu chất lượng báo chí và tính sáng tạo - một biên tập viên thường có thể nhận ra sự khác biệt. Bà nói: “Con người sẽ tiếp tục phát minh và sáng tạo hơn nhiều, đồng thời có thể tạo ra những cách nói thực sự khác thường.


Nhà báo có nên sử dụng ChatGPT để viết báo?

ONECMS đã "phỏng vấn" chính ChatGPT về chủ đề này và nhận được các câu trả lời như sau:

Tôi có nên sử dụng ChatGPT để viết báo?

ChatGPT có thể giúp bạn tạo nội dung văn bản tự động, nhưng nó không phải là một công cụ hoàn hảo cho viết báo. Bởi vì nó chủ yếu dựa trên dữ liệu đã học được từ internet và có thể chứa sai sót hoặc thông tin không chính xác. Nó cũng không có khả năng xét xử và phân tích các vấn đề phức tạp. Vì vậy, nếu bạn muốn viết một báo cáo chính thống, tốt nhất là sử dụng những công cụ khác và kiểm tra thông tin cẩn thận.

Nhà báo có nên viết báo bằng ChatGPT?

Không, nhà báo không nên viết báo chính thống bằng ChatGPT hoặc bất kỳ công cụ tự động nào. Việc viết báo yêu cầu sự xét xử và phân tích chính xác của thông tin, và các mô hình AI như ChatGPT chủ yếu dựa trên dữ liệu đã học được từ internet và có thể chứa sai sót hoặc thông tin không chính xác. Nhà báo cần phải tự kiểm tra và xác minh thông tin trước khi viết và đăng báo. Mặc dù ChatGPT có thể giúp tạo ra nội dung văn bản tự động, nhưng nó không thể thay thế sự kiểm tra và phân tích của con người.

co_nen_su_dung_chatgpt_de_viet_bao(1).png
Đọc tiếp

Những việc ChatGPT có thể làm thay nhà báo

Nhà báo có thể sử dụng ChatGPT để giúp cho công việc hiệu quả hơn
Từ khóa phổ biến
Cách tốt nhất để xem chúng tôi có phù hợp với nhu cầu của bạn không là...
Liên hệ tư vấn
(Hoàn toàn miễn phí)
SẢN PHẨM VỚI TẤT CẢ NIỀM ĐAM MÊ CỦA CÔNG TY CỔ PHẦN CÔNG NGHỆ NEKO
  • Địa chỉ: Tầng 2, Tòa B, Chung cư Xuân Phương Residence, Đường Trịnh Văn Bô, Quận Nam Từ Liêm, Hà Nội
  • Điện thoại: 024.2324.8989 - Email: info@neko.vn
  • DMCA.com Protection Status