A股上市公司传智教育(股票代码 003032)旗下技术交流社区北京昌平校区

 找回密码
 加入黑马

QQ登录

只需一步,快速开始

© 周发建 中级黑马   /  2013-2-1 13:51  /  2070 人查看  /  1 人回复  /   0 人收藏 转载请遵从CC协议 禁止商业使用本文

本帖最后由 张向辉 于 2013-2-2 12:46 编辑

这俩个集合有什么区别呢,我在学习集合时,遇到了很多问题,也学的迷糊,大家能给我写学习的意见吗

1 个回复

倒序浏览
HASHSET:   
          此类实现   Set   接口,由哈希表(实际上是一个   HashMap   实例)支持。它不保证集合的迭代顺序;特别是它不保证该顺序恒久不变。此类允许使用   null   元素。   
          此类为基本操作提供了稳定性能,这些基本操作包括   add、remove、contains   和   size,假定哈希函数将这些元素正确地分布在桶中。对此集合进行迭代所需的时间与   HashSet   实例的大小(元素的数量)和底层   HashMap   实例(桶的数量)的“容量”的和成比例。因此,如果迭代性能很重要,则不要将初始容量设置得太高(或将加载因子设置得太低)。   
          注意,此实现不是同步的。   如果多个线程同时访问一个集合,而其中至少一个线程修改了该集合,那么它必须   保持外部同步。这通常是通过对自然封装该集合的对象执行同步操作来完成的。如果不存在这样的对象,则应该使用   Collections.synchronizedSet   方法来“包装”集合。最好在创建时完成这一操作,以防止对   HashSet   实例进行意外的不同步访问:     
                      Set   s   =   Collections.synchronizedSet(new   HashSet(...));   
          此类的   iterator   方法返回的迭代器是快速失败   的:在创建迭代器之后,如果对集合进行修改,除非通过迭代器自身的   remove   方法,否则在任何时间以任何方式对其进行修改,Iterator   都将抛出   ConcurrentModificationException。因此,面对并发的修改,迭代器很快就会完全失败,而不冒将来在某个不确定时间发生任意不确定行为的风险。     
          注意,迭代器的快速失败行为无法得到保证,因为一般来说,不可能对是否出现不同步并发修改做出任何硬性保证。快速失败迭代器在尽最大努力抛出   ConcurrentModificationException。因此,为提高这类迭代器的正确性而编写一个依赖于此异常的程序是错误做法:迭代器的快速失败行为应该仅用于检测程序错误。   
   
  HASHMAP:   
          基于哈希表的   Map   接口的实现。此实现提供所有可选的映射操作,并允许使用   null   值和   null   键。(除了不同步和允许使用   null   之外,HashMap   类与   Hashtable   大致相同。)此类不保证映射的顺序,特别是它不保证该顺序恒久不变。     
          此实现假定哈希函数将元素正确分布在各桶之间,可为基本操作(get   和   put)提供稳定的性能。迭代集合视图所需的时间与   HashMap   实例的“容量”(桶的数量)及其大小(键-值映射关系数)的和成比例。所以,如果迭代性能很重要,则不要将初始容量设置得太高(或将加载因子设置得太低)。     
          HashMap   的实例有两个参数影响其性能:初始容量   和加载因子。容量   是哈希表中桶的数量,初始容量只是哈希表在创建时的容量。加载因子   是哈希表在其容量自动增加之前可以达到多满的一种尺度。当哈希表中的条目数超出了加载因子与当前容量的乘积时,通过调用   rehash   方法将容量翻倍。     
          通常,默认加载因子   (.75)   在时间和空间成本上寻求一种折衷。加载因子过高虽然减少了空间开销,但同时也增加了查询成本(在大多数   HashMap   类的操作中,包括   get   和   put   操作,都反映了这一点)。在设置初始容量时应该考虑到映射中所需的条目数及其加载因子,以便最大限度地降低   rehash   操作次数。如果初始容量大于最大条目数除以加载因子,则不会发生   rehash   操作。     
          如果很多映射关系要存储在   HashMap   实例中,则相对于按需执行自动的   rehash   操作以增大表的容量来说,使用足够大的初始容量创建它将使得映射关系能更有效地存储。     
          注意,此实现不是同步的。如果多个线程同时访问此映射,而其中至少一个线程从结构上修改了该映射,则它必须   保持外部同步。(结构上的修改是指添加或删除一个或多个映射关系的操作;仅改变与实例已经包含的键关联的值不是结构上的修改。)这一般通过对自然封装该映射的对象进行同步操作来完成。如果不存在这样的对象,则应该使用   Collections.synchronizedMap   方法来“包装”该映射。最好在创建时完成这一操作,以防止对映射进行意外的不同步访问,如下所示:   
              Map   m   =   Collections.synchronizedMap(new   HashMap(...));   
          由所有此类的“集合视图方法”所返回的迭代器都是快速失败   的:在迭代器创建之后,如果从结构上对映射进行修改,除非通过迭代器自身的   remove   或   add   方法,其他任何时间任何方式的修改,迭代器都将抛出   ConcurrentModificationException。因此,面对并发的修改,迭代器很快就会完全失败,而不冒在将来不确定的时间任意发生不确定行为的风险。     
          注意,迭代器的快速失败行为不能得到保证,一般来说,存在不同步的并发修改时,不可能作出任何坚决的保证。快速失败迭代器尽最大努力抛出   ConcurrentModificationException。因此,编写依赖于此异常程序的方式是错误的,正确做法是:迭代器的快速失败行为应该仅用于检测程序错误。



Hashtable类   
    Hashtable继承Map接口,实现一个key-value映射的哈希表。任何非空(non-null)的对象都可作为key或者value。   
    添加数据使用put(key,   value),取出数据使用get(key),这两个基本操作的时间开销为常数。   
  Hashtable通过initial   capacity和load   factor两个参数调整性能。通常缺省的load   factor   0.75较好地实现了时间和空间的均衡。增大load   factor可以节省空间但相应的查找时间将增大,这会影响像get和put这样的操作。   
  使用Hashtable的简单示例如下,将1,2,3放到Hashtable中,他们的key分别是”one”,”two”,”three”:   
      Hashtable   numbers   =   new   Hashtable();   
      numbers.put(“one”,   new   Integer(1));   
      numbers.put(“two”,   new   Integer(2));   
      numbers.put(“three”,   new   Integer(3));   
    要取出一个数,比如2,用相应的key:   
      Integer   n   =   (Integer)numbers.get(“two”);   
      System.out.println(“two   =   ”   +   n);   
    由于作为key的对象将通过计算其散列函数来确定与之对应的value的位置,因此任何作为key的对象都必须实现hashCode和equals方法。hashCode和equals方法继承自根类Object,如果你用自定义的类当作key的话,要相当小心,按照散列函数的定义,如果两个对象相同,即obj1.equals(obj2)=true,则它们的hashCode必须相同,但如果两个对象不同,则它们的hashCode不一定不同,如果两个不同对象的hashCode相同,这种现象称为冲突,冲突会导致操作哈希表的时间开销增大,所以尽量定义好的hashCode()方法,能加快哈希表的操作。   
    如果相同的对象有不同的hashCode,对哈希表的操作会出现意想不到的结果(期待的get方法返回null),要避免这种问题,只需要牢记一条:要同时复写equals方法和hashCode方法,而不要只写其中一个。   
    Hashtable是同步的。   
   
  HashMap类   
    HashMap和Hashtable类似,不同之处在于HashMap是非同步的,并且允许null,即null   value和null   key。,但是将HashMap视为Collection时(values()方法可返回Collection),其迭代子操作时间开销和HashMap的容量成比例。因此,如果迭代操作的性能相当重要的话,不要将HashMap的初始化容量设得过高,或者load   factor过低。   
   
  WeakHashMap类   
    WeakHashMap是一种改进的HashMap,它对key实行“弱引用”,如果一个key不再被外部所引用,那么该key可以被GC回收。

   
   
   

评分

参与人数 1黑马币 +9 收起 理由
Rancho_Gump + 9

查看全部评分

回复 使用道具 举报
您需要登录后才可以回帖 登录 | 加入黑马