理想的内存数据结构,用于从大约100000个整数中删除重复项



我想加载一个可能包含大约100000个整数的文件。在加载过程中,我想删除重复项,并将其余部分插入数据库。

  1. C#中的理想数据结构是什么?

  2. B树是否适合我的情况?如果是,C#中是否有B树实现?

(我是C#的新手。)

我只需要使用HashSet<T>。它将忽略重复项。

请注意,枚举HashSet<T>会以未指定的顺序返回元素。


如果您需要排序,请查看SortedDictionary<TKey, TValue>。它是基于树的,可能会更慢。

假设1L==1Lakh,这不是一个很大的数量。

只需使用不允许重复的集合类型,如HashSet:

HashSet(Of T)类提供了高性能的集合操作。集合是一个不包含重复元素的集合,并且其元素不按特定顺序排列。

最新更新