Tại sao phản biện "hằng số mũ" của Giovanni (Mr. Power Law) đối với phân tích của tôi bên dưới hoàn toàn thất bại... Mô hình hằng số mũ nằm trong khung suy giảm như một trường hợp đặc biệt với d = 0. Nếu mũ là ổn định, bộ tối ưu hóa sẽ tìm thấy d = 0. Nhưng không. Ở mức trung vị, nó tìm thấy d = 0.029. Dữ liệu đã có mọi cơ hội để chọn "không suy giảm." Nó đã từ chối điều đó. QR tuyến tính đặt mức trung vị ở $117,716. Tám hàm suy giảm độc lập, tất cả đều hội tụ vào khoảng $101,000. Đây không phải là 8 phiên bản của cùng một mô hình. Chúng sử dụng các hạt nhân toán học hoàn toàn khác nhau. Sự đồng thuận của chúng là một thuộc tính của dữ liệu, không phải của phương pháp. Mũ hằng số vượt quá khoảng $17,000 so với mọi đặc tả suy giảm đã được kiểm tra. Nhưng đây là điều làm cho điều này không thể chối cãi: tại phân vị 1, cùng một mô hình suy giảm tìm thấy d hiệu quả bằng không. Tất cả các hàm suy giảm đều sụp đổ thành tuyến tính ở mức sàn. Phương pháp không áp đặt suy giảm. Nó phát hiện ra nó ở nơi tồn tại và không tìm thấy ở nơi không có. Bài kiểm tra độ dốc cục bộ, log(P2/P1)/log(t2/t1), tổng hợp toàn bộ phân phối. Nhưng cấu trúc phân vị cho thấy: Dưới mức trung vị: d < 0 (hỗ trợ tăng tốc) Trên mức trung vị: d > 0 (trần suy giảm) Trung bình chúng lại và chúng hủy bỏ nhau. "Hằng số mũ" là nghịch lý Simpson. Tổng thể che giấu cấu trúc. Sự đơn giản không có nghĩa là ít tham số nhất. Nó có nghĩa là không có tham số không cần thiết. Một tham số được xác nhận bởi 8 đặc tả độc lập, tự xác thực bằng cách tìm d = 0 ở mức sàn, không phải là không cần thiết. Một mô hình không thể đại diện cho một đặc điểm của dữ liệu không phải là đơn giản hơn. Nó là không đầy đủ....