我碰巧发现了以下问题,这使我困惑了几个小时。
data test;
input RandNo$ Trt$ Tmax;
cards;
K64 R 0.5
K64 T 0.15
K64 R 0.15
K64 T 0.5
K65 T 0.5
K65 R 0.33
K65 T 0.17
K65 R 0.5
;
run;
proc sql noprint;
create table SQL as
select RandNo, TRT, avg(Tmax) as Tmax_Mean
from test
group by RandNo, TRT
;
quit;
ods output Summary = Means;
proc means data = test n mean;
class RandNo TRT;
var Tmax;
run;
ods output;
proc sql;
select a.RandNo, a.TRT, a.Tmax_Mean as SQL,
b.Tmax_Mean as Means,
SQL - Means as Dif
from SQL as a
left join Means as b
on a.RandNo = b.RandNo and a.TRT = b.TRT
;
quit;
输出:
RandNo Trt SQL Mean Dif
K64 R 0.325 0.325 0
K64 T 0.325 0.325 -555E-19
K65 R 0.415 0.415 0
K65 T 0.335 0.335 -555E-19
那么,为什么proc均值和proc sql的结果与其他结果不同呢?提前感谢。
PS:我尝试删除"K64"或"K65"的观察结果,这次差异消失了。
标准程序(均值、单变量、摘要等(下的统计引擎是相同的,但是,您发现的 SQL 统计引擎与 Procs 引擎的差异可能非常小。
至于为什么更多的是SAS开发人员的问题。一种可能性是SQL引擎可能会从SQL ISO NULL 与SAS缺失值(.
到.Z
(的处理或表示中获得额外的位,这反过来可能会影响结果。
您可以使用 RB8 查看双精度表示的基础位。
put(SQL,RB8.) format=$hex16. as SQL_RB8,
put(Means,RB8.) format=$hex16. as Means_RB8
RandNo Trt SQL Mean Dif SQL_RB8 Means_RB8.
--------------------------------------------------------------------------------------------
K64 R 0.325 0.325 0 CDCCCCCCCCCCD43F CDCCCCCCCCCCD43F
K64 T 0.325 0.325 -555E-19 CCCCCCCCCCCCD43F CDCCCCCCCCCCD43F
K65 R 0.415 0.415 0 90C2F5285C8FDA3F 90C2F5285C8FDA3F
K65 T 0.335 0.335 -555E-19 703D0AD7A370D53F 713D0AD7A370D53F
当有微小的差异时,你会看到
- .325 的
CC...
和CD...
- .335 的
70...
和71...
区别在于非常低阶的位。 如果您想了解有关在双精度空间中存储十进制值的细节的更多信息,请查找 IEEE 754。
我猜一个进程默认应用模糊测试,但另一个没有。除了"遗留原因"之外,很难确切地说出原因。