Bạn không phải đang tưởng tượng.

Cái prompt mà trước đây cho bạn một bản nháp blog hoàn hảo? Bây giờ nó trả về một phiên bản giảm nhẹ, nói chung chung, không muốn cam kết về những gì bạn yêu cầu.

Mẫu email mà trước đây nghe giống như bạn viết nó? Bây giờ nó nghe giống như một bot dịch vụ khách hàng được huấn luyện trên các tài liệu tuân thủ công ty.

Bạn không tệ hơn trong việc viết prompt. ChatGPT đã thay đổi.

Đây là những gì thực sự đã xảy ra — và năm điều bạn có thể làm ngay bây giờ.

Điều gì đã thay đổi (Và khi nào)

OpenAI đã thực hiện các điều chỉnh mô hình đáng kể suốt cuối năm 2025 và vào năm 2026. Các thay đổi rơi vào ba danh mục:

Điều chỉnh an toàn trở nên tích cực hơn. ChatGPT bây giờ nói chung chung hơn, thêm từ chối hơn, và từ chối các trường hợp biên mà trước đây nó xử lý tốt. Nếu bạn nhận thấy nhiều phản hồi "Tôi không thể giúp bạn với điều đó" hoặc "Điều quan trọng là lưu ý rằng...", đây là lý do.

Trong công việc hàng ngày, điều chỉnh an toàn tích cực thường hiển thị dưới dạng "đoạn văn preflight" — hai câu ngữ cảnh trước khi trả lời — hoặc một sự từ chối mà có vẻ hẹp một cách lạ lẫm so với những gì bạn hỏi. Nếu nhiệm vụ của bạn thực sự lành tính nhưng gần với một danh mục nhạy cảm (sức khỏe, bảo mật, pháp lý), bạn đôi khi có thể khôi phục chất lượng bằng cách diễn đạt lại dưới dạng quy trình ("phác thảo cách một nhóm sẽ xem xét điều này") thay vì yêu cầu các quyết định phán xét xác định.

Tối ưu hóa chi phí đã thay đổi hành vi mô hình. OpenAI phục vụ hàng tỷ yêu cầu. Những lợi ích hiệu quả nhỏ ở quy mô của họ chuyển thành hàng triệu tiền tiết kiệm. Một số người dùng báo cáo rằng các phản hồi cảm thấy ngắn hơn, ít chi tiết hơn, và công thức hơn — phù hợp với một mô hình được tối ưu hóa cho thông lượng hơn là chiều sâu.

Ngay cả khi khả năng trung bình vẫn cao, các mặc định hướng thông lượng có thể thay đổi những gì bạn thấy trong giao diện người dùng: bản nháp đầu tiên ngắn hơn, ít phần tùy chọn hơn, và ít "đây là ba hướng sáng tạo" khám phá trừ khi bạn yêu cầu rõ ràng. Điều đó có thể cảm thấy giống như một sự sụt giảm chất lượng nếu các prompt cũ của bạn dựa vào mô hình tự nguyện cung cấp cấu trúc.

Mô hình cơ sở đã thay đổi. GPT-4o, GPT-4.5, và GPT-5.5 mỗi cái hoạt động khác nhau. Nếu bạn xây dựng các prompt được điều chỉnh cho hành vi của GPT-4, chúng có thể không hoạt động theo cách tương tự trên các phiên bản mới. Tính cách, độ dài, và các mẫu lý luận đã thay đổi giữa các phiên bản.

Những sự thay đổi đó hiếm khi đến dưới dạng một thời điểm bản tin báo chí đơn lẻ. Trong thực tế, bạn nhận thấy chúng khi một mẫu hoạt động trong vài tháng đột nhiên cảm thấy "sai" — các hướng dẫn tương tự, các ví dụ tương tự trong prompt của bạn, nhưng đầu ra trôi dạt về các tóm tắt chung, danh sách dấu đầu dòng lặp lại yêu cầu của bạn, và ít khuyến nghị cụ thể hơn. Sự không khớp đó thường là một thay đổi phiên bản hoặc định tuyến đằng sau các cảnh, không phải một bản nâng cấp bí ẩn về kỹ năng của bạn.

Một mẫu khác mà mọi người bỏ lỡ: cách sử dụng của chính bạn đã thay đổi. Ban đầu, bạn có thể đã sử dụng ChatGPT để làm bản nháp nhanh và động não. Bây giờ bạn có thể yêu cầu nó giải thích các hợp đồng, bình luận về các chủ đề liên quan đến y tế, hoặc xử lý bất kỳ điều gì làm phát động logic từ chối nghiêm hơn. Mô hình không giống nhau trên các cấp độ rủi ro, và trải nghiệm sản phẩm có thể định tuyến bạn qua các biện pháp bảo vệ khác nhau tùy thuộc vào chủ đề và cài đặt tài khoản.

Nếu bạn muốn một cách thực tế để so sánh hành vi mà không bị xoay vòng, hãy giữ một tệp "golden prompt": năm tác vụ bạn chạy hàng quý (viết lại đoạn này, gỡ lỗi đoạn này, phác thảo bài nói này, phê bình trang này, tóm tắt đoạn PDF này). Khi chất lượng đầu ra thay đổi, bạn có một đường cơ sở có ngày tháng thay vì ký ức chỉ dựa vào cảm giác.

Vấn đề thực sự: Prompt của bạn không thích ứng

Đây là sự thật khó chịu: hầu hết mọi người viết các prompt hoạt động các xu hướng cụ thể của GPT-4, không phải vì các prompt được cấu trúc tốt.

GPT-4 dài dòng theo mặc định. Nó sẽ cung cấp cho bạn 2.000 từ khi bạn yêu cầu một bản tóm tắt. Nó sẽ suy luận ý định của bạn rộng rãi. Nó sẽ tự do sáng tạo mà bạn không yêu cầu rõ ràng.

Độ dài dòng đó không phải lúc nào cũng tốt — nó có thể chôn câu trả lời — nhưng nó tạo ra một ảo tưởng về năng lực vì mô hình che phủ các khoảng trống trong yêu cầu của bạn. Nếu bạn từng hỏi "tóm tắt cuộc họp này" mà không có những người tham dự, không có quyết định, và không có mục tiêu, GPT-4 vẫn có thể tạo ra một cái gì đó có vẻ hợp lý. Một mô hình chặt chẽ hơn có thể trả về một bản tóm tắt mỏng hoặc đặt các câu hỏi làm rõ, điều này đọc được là kém hữu ích hơn ngay cả khi nó trung thực hơn.

Các mô hình mới hơn là chặt chẽ hơn. Bảo thủ hơn. Có khả năng cung cấp cho bạn chính xác những gì bạn yêu cầu — điều đó có nghĩa là các prompt mơ hồ nhận được đầu ra mơ hồ.

Đây không phải mô hình trở nên ngu ngốc. Đó là mô hình trở nên vâng lời hơn. Và vâng lời + hướng dẫn mơ hồ = đầu ra kém.

Dưới đây là một ví dụ cụ thể. Giả sử bạn yêu cầu "phản hồi về các điểm bullet CV của tôi". Một mô hình giải thích hơn có thể suy luận ngành của bạn, suy luận các cấp cao, và viết lại các bullet một cách tích cực. Một mô hình chặt chẽ hơn có thể trả về một danh sách kiểm tra lịch sự ("cân nhắc định lượng tác động") mà không chạm vào văn bản của bạn — về mặt kỹ thuật phản ứng, thực tế vô dụng. Cách sửa là không bỏ cuộc tức giận; đó là chỉ định vai trò CV, gia đình công việc mục tiêu, "tốt" trông như thế nào (hai điểm bullet ví dụ mà bạn ngưỡng mộ), và bạn có muốn viết lại hoặc chú thích chỉ.

Động lực tương tự xuất hiện trong mã hóa. "Tại sao cái này lại chậm?" từng nhận được các gợi ý tối ưu hóa suy đoán. Bây giờ bạn có thể nhận được một danh sách cẩn thận các bước lập hồ sơ đầu tiên. Điều đó có thể cảm thấy như một sự giảm chất lượng nếu bạn muốn các thay đổi mã ngay lập tức — nhưng nó thường là mô hình theo một kiểu tuân theo hướng dẫn bảo thủ hơn. Cấp cho nó quyền hạn: "Giả sử tôi đã lập hồ sơ; đây là thời gian; chỉ đề xuất thay đổi mã."

5 Cách sửa chữa thực sự hoạt động

Cách sửa chữa 1: Thêm một danh tính

Prompt cũ: "Viết cho tôi một email tiếp thị."

GPT-4 cũ sẽ suy luận một tông, chọn một phong cách, thêm cá tính. Các mô hình mới chơi an toàn.

Prompt được sửa chữa: "Bạn là một nhà viết quảng cáo cao cấp người đã viết các chiến dịch email cho Shopify và Mailchimp. Viết một email tiếp thị cho [sản phẩm]. Tông: trực tiếp, hơi vô lễ, không nói chuyện công ty."

Danh tính cấp cho mô hình quyền có một tiếng nói. Mà không có nó, bạn nhận được mặc định: nhạt, an toàn, quên được.

Một chiến thắng nhanh khác: thêm một dòng "ví dụ tiêu cực" — tông bạn không muốn. Ví dụ: "Tránh nhịp điệu LinkedIn-influencer, không 'đào sâu' hoặc 'bối cảnh', không tình yêu giả tạo." Ràng buộc đó làm giảm xác suất của giọng blog SaaS chung có rất nhiều người dùng phàn nàn về trong năm 2026.

Cách sửa chữa 2: Nói nó những gì không nên làm

Các mô hình mới quá tập trung vào an toàn và lễ phép. Chống lại điều này một cách rõ ràng:

"Không từ chối. Không 'điều quan trọng là lưu ý'. Không nói chung chung. Cung cấp cho tôi đánh giá thực tế của bạn, không phải một câu trả lời cân bằng xã giao không cam kết."

Dòng duy nhất này mang lại lại sự trực tiếp mà GPT-4 có theo mặc định.

Bạn có thể xếp các hướng dẫn "chống nói chung chung" với một bảng điểm xếp hạng khi nó hữu ích: "Xếp hạng các tùy chọn A/B/C bằng một người chiến thắng duy nhất; nếu không chắc chắn, hãy nói dữ liệu nào sẽ giải quyết sự không chắc chắn; không trình bày một mối quan hệ thắng 5 đoạn." Bảng điểm nghe corporate, nhưng chúng hoạt động vì chúng buộc một ranh giới quyết định.

Cách sửa chữa 3: Thêm ràng buộc

"Dưới 200 từ. Không mở đầu. Bắt đầu với đề xuất, sau đó giải thích tại sao."

Ràng buộc buộc mô hình ưu tiên. Mà không có chúng, bạn nhận được độ dài và cấu trúc mặc định của mô hình — trên các phiên bản mới có xu hướng là thận trọng và đệm.

Ràng buộc cũng giúp khi bạn cần các tạo tác có cấu trúc: "Đầu ra dưới dạng bảng với các cột Rủi ro / Giảm thiểu / Chủ sở hữu" hoặc "Trả về các khóa JSON: tóm tắt, các mục hành động, câu hỏi mở." Các đầu ra có cấu trúc giảm bớt diễn giải và làm cho chỉnh sửa hạ nguồn nhanh hơn trong Notion, Google Docs, hoặc hệ thống vé của bạn.

Cách sửa chữa 4: Thử Claude

Đây không phải là một khuyến nghị "chỉ cần chuyển đổi". Các mô hình khác nhau tốt hơn tại các điều khác nhau:

  • Claude xuất sắc trong viết dạng dài, tuân theo các hướng dẫn phức tạp, và duy trì một giọng nhất quán trên các tài liệu dài. Hiện đây là lựa chọn tốt nhất cho tạo nội dung, phân tích tài liệu, và bất kỳ điều gì mà bạn cần AI tuân theo các thông số kỹ thuật chi tiết.
  • ChatGPT vẫn dẫn đầu trong thực thi mã (chạy Python trong trình duyệt), tạo hình ảnh (DALL-E), và phạm vi của các tích hợp (plugins, GPTs, duyệt web).
  • Gemini mạnh nhất cho các tác vụ liên quan đến dữ liệu hệ sinh thái Google (Gmail, Drive, Calendar) và có cửa sổ ngữ cảnh lớn nhất để xử lý các tài liệu rất dài.

Câu trả lời đúng không phải là chọn một — đó là biết sử dụng cái nào cho cái gì. Hãy thử miễn phí Model Picker để khớp tác vụ cụ thể của bạn với mô hình tốt nhất.

Nếu bạn đang di chuyển giữa chừng, chạy cùng "golden prompt" trên ChatGPT và Claude song song một tuần. Bạn không tìm kiếm một người chiến thắng mãi mãi — bạn tìm kiếm mô hình nào tôn trọng ràng buộc của bạn (độ dài, tông, trích dẫn, từ chối) cho công việc bạn thực sự làm.

Cách sửa chữa 5: Sử dụng Khung ICCSSE

Mọi prompt tốt có tối đa sáu thành phần:

  • Identity (Danh tính) — AI nên là ai?
  • Context (Ngữ cảnh) — Bối cảnh là gì?
  • Constraints (Ràng buộc) — Giới hạn là gì?
  • Steps (Bước) — Thứ tự hoạt động là gì?
  • Specifics (Chi tiết) — Chi tiết chính xác nào quan trọng?
  • Examples (Ví dụ) — Đầu ra tốt trông như thế nào?

Bạn không cần cả sáu cái mỗi lần. Các tác vụ đơn giản cần 2-3 cái. Các tác vụ phức tạp hưởng lợi từ cả sáu cái.

Sự khác biệt giữa "ChatGPT trở nên ngu ngốc hơn" và "Tôi cần cập nhật các prompt của tôi" thường là khung này. Đọc hướng dẫn ICCSSE đầy đủ hoặc thử Prompt Optimizer để tự động cải thiện bất kỳ prompt nào.

Một thói quen nữa trả lợi tức: lưu "prompt diffs". Khi bạn thay đổi một prompt và chất lượng cải thiện, hãy giữ cặp trước/sau. Theo thời gian bạn xây dựng một thư viện cá nhân về những gì stack của bạn phản hồi — quý giá hơn nhiều so với theo đuổi các danh sách "prompt tốt nhất" chung."

ChatGPT đang trở nên tệ hơn hay tôi đang tưởng tượng nó?

Bạn có thể không phải đang tưởng tượng một sự thay đổi trong cảm giác, nhưng bước từ "cảm giác" đến "tệ hơn" bỏ qua một sự phân biệt quan trọng. ChatGPT trong năm 2026 thường tối ưu hóa cho một hỗn hợp khác nhau của các mục tiêu hơn phiên bản bạn tiếp thu: an toàn, tuân theo hướng dẫn, độ trễ, và chi phí ở quy mô khổng lồ. Những mục tiêu đó có thể tạo ra các đầu ra cảm thấy ít sáng tạo hơn ngay cả khi khả năng cơ bản vẫn mạnh mẽ cho các tác vụ được chỉ định tốt.

Những gì cảm thấy như "tệ hơn" thường xuyên là một sự không khớp giữa kỳ vọng và mặc định. Nếu bạn kỳ vọng mô hình suy luận bối cảnh bị thiếu, điền vào giọng thương hiệu, và mạo hiểm kiểu, bạn sẽ nhận thấy nhiều ma sát hơn khi mặc định là tuân thủ chặt chẽ. Sự ma sát đó là thực tế — nó chỉ không phải là điều tương tự như IQ sụt giảm.

Một bài kiểm tra thực tế là khả năng tái tạo. Nếu bạn có thể dán cùng một prompt hai lần và nhận được chất lượng khác nhau về chất liệu, bạn có thể đang chạy vào phương sai định tuyến, sử dụng công cụ, hoặc sự khác biệt chế độ duyệt — không phải một "mô hình ngu ngốc hơn" ổn định. Nếu chất lượng ít nhất chỉ cho một danh mục tác vụ (y tế, pháp lý, chính trị), bạn có khả năng chạy vào hành vi nặng chính sách hơn là một sự sụt giảm toàn cầu.

Cuối cùng, kiểm tra tín hiệu mệt mỏi của chính bạn. Khi mọi người bận rộn, họ tái sử dụng các prompt dễ vỡ ("sửa cái này") và diễn giải các câu trả lời mơ hồ như một trí thông minh thấp hơn. Kiểm tra suy luận nhanh nhất là chi 10 phút siết các prompt cho ba quy trình hàng đầu của bạn. Nếu chất lượng nhảy, bẫy chai là thông số — đó là tin tốt vì nó có thể sửa được mà không cần chuyển đổi sản phẩm.

Tôi có nên chuyển từ ChatGPT sang Claude không?

Chuyển đổi nếu nỗi đau chính của bạn là độ trung thực dạng dài: các bài viết nhiều phần, viết lại tinh tế, các tài liệu dài trong đó bạn cần tông nhất quán, hoặc các prompt với nhiều ràng buộc phải giữ tất cả một lúc. Claude thường là điểm dừng đầu tiên cho các nhóm có đầu ra ChatGPT cảm thấy "san bằng" sau thay đổi điều chỉnh 2025-2026.

Ở lại trên ChatGPT (hoặc giữ cả hai) nếu quy trình công việc của bạn phụ thuộc vào sức mạnh gốc ChatGPT: thực thi mã trong trình duyệt, tạo hình ảnh, một số tích hợp nhất định, hoặc một ngăn xếp thói quen xây dựng xung quanh GPTs và công cụ bạn không muốn xây dựng lại. Nhiều người dùng nâng cao không "chuyển đổi"; họ các quy trình định tuyến theo loại cũng như bạn sẽ chọn Postgres so với Elasticsearch dựa trên tải công việc.

Nếu bạn chuyển đổi, cam kết hai tuần về công việc thực tế, không phải các prompt đồ chơi. Xây dựng lại một số mẫu bằng cấu trúc kiểu ICC, sau đó so sánh kết quả về tốc độ, chỉnh sửa cần thiết, và tỷ lệ từ chối. Cũng xem chi phí: "đầu ra tốt hơn" yêu cầu gấp đôi số lần lặp lại là không thực sự tốt hơn cho lịch trình của bạn.

Nếu bạn không chắc chắn, bắt đầu với Model Picker và sau đó xác thực bằng Prompt Optimizer để bạn không so sánh các mô hình sử dụng các prompt không công bằng lười biếng.

Giải pháp thay thế ChatGPT tốt nhất trong năm 2026 là gì?

Không có một người chiến thắng duy nhất — giải pháp thay thế tốt nhất phụ thuộc vào việc bạn quan tâm nhất đến viết, trích dẫn nghiên cứu, thực thi mã, tích hợp Google Workspace, hay tùy chọn bảo mật cục bộ. Điều đó nói rằng, "giải pháp thay thế mặc định" phổ biến nhất cho người dùng nặng ChatGPT trong năm 2026 vẫn là Claude cho viết và công việc tài liệu, Perplexity cho nghiên cứu có nguồn, và Gemini khi đầu vào của bạn sống trên Gmail/Drive/Calendar và bạn muốn tích hợp chặt chẽ.

Đối với mã hóa cụ thể, bối cảnh chia tách: ChatGPT vẫn mạnh mẽ như một lập trình viên cặp chủ nghĩa tổng quát, trong khi các công cụ như Cursor và Claude Code cạnh tranh về cách bạn muốn AI chạm vào repo của bạn (soạn thảo gốc so với tác nhân). Nếu khiếu nại của bạn là "ChatGPT cảm thấy giảm bớt cho các đánh giá mã", hãy thử chuyển các đánh giá sang quy trình với ngữ cảnh tệp rõ ràng và một định dạng đầu ra nghiêm hơn, không phân biệt nhà cung cấp.

Nếu khiếu nại của bạn là "Tôi cần sử dụng rẻ hơn hoặc kiểm soát được hơn", các quy trình được API hỗ trợ và các công cụ chuyên dụng nhỏ hơn đôi khi đánh bại một giao diện trò chuyện duy nhất. Các tiện ích miễn phí HundredTabs — từ định dạng JSON đến PDF thành Markdown — có thể loại bỏ toàn bộ các lớp chat trở lại lần lữa.

Bất kể bạn chọn cái gì, chạy lại golden prompts của bạn và đo: thời gian đến đầu ra hữu ích, số lần theo dõi, và bao lâu bạn từ bỏ câu trả lời. Những chỉ số đó đánh bại lòng trung thành thương hiệu và giai thoại diễn đàn.

Dòng dưới cùng

ChatGPT không trở nên ngu ngốc hơn. Nó trở nên bảo thủ hơn, chặt chẽ hơn, và ít khả năng điền vào các khoảng trống bạn để lại trong các prompt của bạn.

Các prompt "từng hoạt động" dựa vào mô hình được rộng rãi giải thích. Đó không phải là đáng tin cậy trên các phiên bản mô hình. Các prompt có cấu trúc hoạt động trên mỗi mô hình, mỗi phiên bản, mỗi lần.

Nếu bạn chán nản với chất lượng đầu ra AI trong năm 2026, cách sửa chữa không phải là một đăng ký mới. Đó là một prompt tốt hơn.

Công cụ trong bài viết này