常用存储协议详细说明(SCSI、SAS、FC、PCle、IB、CIFS、FTP、HTTP)【5】

文章目录

  • SCSI/ISCSI
    • SCSI
    • ISCSI
  • SAS
  • FC/FCOE
    • FC
    • FCOE
  • PCle
  • IB
  • CIFS/ NFS
  • FTP/HTTP
    • FTP
    • HTTP

SCSI/ISCSI

SCSI

  • SCSI即小型计算机接口(Small Computer System Interface),指的是一个庞大协议体系,到目前为止经历了SCSI-1/SCSI-2/SCSI-3变迁。

  • SCSI协议定义了一套不同设备(磁盘,磁带,处理器,光设备, 络设备等)利用该框架进行信息交互的模型和必要指令集。

  • SCSI协议本质上同传输介质无关,SCSI可以在多种介质上实现,甚至是虚拟介质。例如基于光纤的FCP链路协议,基于SAS的链路协议,基于虚拟IP链路的ISCSI协议。

  • 逻辑单元(LUN):LUN是SCSI目标器中所描述的名字空间资源,一个目标器可以包括多个LUN,而且每个LUN的属性可以有所区别,比如LUN#0可以是磁盘,LUN#1可以是其他设备。

  • 启动器(Initiator):本质上,SCSI是一个C/S架构,其中客户端成为启动器,负责向SCSI目标器发送请求指令,一般主机系统都充当了启动器的角色。

  • 目标器(Target):处理SCSI指令的服务端称为目标器,它接收来自主机的指令并解析处理,比如磁盘阵列的角色就是目标器。

  • SCSI的Initiator与Target共同构成了一个典型的C/S模型,每个指令都是“请求/应答”这样的模型来实现。

  • Initiator主要任务:发出SCSI请求

  • Target主要任务:回答SCSI请求,通过LUN提供业务,并通过任务管理器提供任务管理功能

  • Target一般依据SCSI体系结构,分为三个层次,分别是链路端口层(Port Layer),中间层( Middle Layer),目标设备层(Device Layer)。其中最重要的是中间层,在中间层中将以SAM/SPC为规范,对LUN命名空间,链路端口,目标设备,任务,任务集,会话等进行管理维护。端口层的驱动都以注册的形式动态载入,设备层的驱动也是动态载入。

  • 目标器中PORT模型:PORT驱动将动态载入,PORT主要完成的任务是对链路上携带的SCSI指令的解包和封包,比如将指令打包为FPC或者ISCSI或者SAS等,或者将指令从FCP/ISCSI/SAS中解开。iSCSI/FCP/SAS等硬件的目标器模式驱动都属于PORT范畴,PORT需要提供的方法函数可能包括,传输 文(xmit_response),准备好接受数据(xfer_data),管理指令处理完毕回调(mgmt_task_done),任务处理结束(cmd_done),端口控制(复位等control)等。

  • 目标器中间层:中间层维护了“LUN空间”,“任务集”,“任务(命令)”等模型,对于LUN空间维护有两种截然不同的实现方法,一种是所有的PORT都看见的是一个全局的LUN,并外一种是为每个PORT维护一个LUN空间,其中第一种方法实现较为简单,这里的讨论以第一种展开。

  • 目标器中的Device模型:本质上Device是一个SCSI指令“分析器”,通过处理INQUIRY告诉Initiator当前LUN是什么设备,通过READ/WRITE处理IO。

    • 为了对连接在SCSI总线上的设备寻址,SCSI协议引入了SCSI设备ID和逻辑单元 LUN(Logical Unit Number)。在SCSI总线上的每个设备都必须有一个唯一的设备ID,当然服务器中的主机总线适配器也拥有自己的设备ID,固定为7。每条总线,包括总线适配器,最多允许有8个或者16个设备ID。设备ID一方面用以寻址,另一个作用是标识该设备在总线使用上的优先级。此外,在同一条总线上连接的不同的设备的设备ID必须不同,否则就会引起寻址和优先级的冲突。
    • 每一个存储设备可能包括若干个子设备,如虚拟磁盘、磁带驱动器等。 因此SCSI协议引入了逻辑单元 LUN ID,以便于对存储设备中的子设备进行寻址。
    • 传统的SCSI控制器连接单条总线,相应的只具有一个总线 。企业级的一个服务器则可能配置了多个SCSI控制器,从而就可能有多条SCSI总线。在引入存储 络之后,每个FCHBA(Host Bus Adapter)或iSCSI(Internet SCSI) 卡也都各连接着一条总线,因此必须对每一条总线分配一个总线 ,在他们之间依靠不同的总线 加以区分。我们可以使用一个三元描述标识一个SCSI目标:总线 /目标设备ID/逻辑单元 LUN ID。

    ISCSI

  • iSCSI是互联 小型计算机系统接口(Internet Small Computer System Interface)的简称,是一种在TCP/IP上进行数据块传输的标准,可以理解为SCSI over IP

  • iSCSI可构成基于IP的SAN,为用户提供高速、低价、长距离的存储解决方案

  • iSCSI将SCSI命令封装到TCP/IP数据包中,使I/O数据块可通过IP 络传输

  • iSCSI (Internet SCSI)把SCSI命令和块状数据封装在TC。P中在IP 络中传输。iSCSI作为SCSI的传输层协议,基本出发点是利用成熟的IP 络技术来实现和延伸SAN。

  • iSCSI协议是SCSI远程过程调用模型到TCP/IP协议的映射。SCSI协议层负责生成CDB,并将其送到iSCSI协议层,然后由 iSCSI协议层进一步封装成PDU,经IP 络进行传送。

  • 在支持iSCSI的系统中,用户在一台SCSI存储设备上发出存数据或取数据的命令,操作系统对该请求进行处理,并将该请求转换成一条或者多条SCSI指令,然后再传给目标SCSI控制卡。iSCSI节点将指令和数据封装(Encapsulation)起来,形成一个iSCSI包,然后该数据封装被传送给TCP/IP层,再由TCP/IP协议将iSCSI包封装成IP协议数据以适合在 络中传输。也可以对封装的SCSI命令进行加密处理,然后在不安全的 络上传送。

  • 数据包可以在局域 或Internet上传送。在接收存储控制器上,数据 重新被组合,然后存储控制器读取iSCSI包中的SCSI控制命令和数据发送到相应的磁盘驱动器上,磁盘驱动器再执行初始计算机或应用所需求的功能。如果发送的是数据请求,那么将数据从磁盘驱动器中取出进行封装后发送给发出请求的计算机,而这整个过程对于用户来说都是透明的。尽管SCSI命令的执行和数据准备可以通过使用标准TCP/IP和现成的 络控制卡的软件来完成,但是在利用软件完成封装和解封装的情况下,在主机处理器上实现这些功能需要很多的CPU运算周期来处理数据和SCSI命令。如果将这些事务交给专门的设备处理,则可以将对系统性能的影响减少到最小程度,因此,发展在iSCSI标准下并执行SCSI命令和完成数据准备的专用iSCSI适配器是有必要的。iSCSI 适配器结合了NIC和HBA的功能。这种适配器以块方式取得数据,利用 TCP/IP处理引擎在适配卡上完成数据分化和处理,然后通过IP 络送出IP数据包。这些功能的完成使用户可以在不降低服务器性能的基础上创建一个基于IP的SAN。

    • SAS采用点对点连接的设计使得通信的两个设备间建立了专用链路进行通信,而在并行SCSI中采用的多点总线设计则是多个设备共享同一条总线。使用点对点连接,通信速度也快得多,因为通信的两个设备之间不需要在通信前检测是否被允许使用连接链路。每个设备连接到指定的数据通路上提高了带宽。
    • 串行接口结构简单,支持热插拔,传输速度快,执行效率高。一般情况下,较大的并行电缆会带来电子干扰,SAS的电缆结构可以解决这个问题。SAS的电缆结构节省了空间,从而提高了使用SAS硬盘服务器的散热、通风能力。

    • 更低的成本:

      • SAS的背板可以兼容SAS和SATA两类硬盘,使用不同类型的硬盘时部需要再重新进行投资。
      • 不需要为SCSI和SATA标准分别设计不同的产品,同时也减少了设计时布线的复杂度和PCB的层数,因此降低了成本。
      • 系统集成商也不需要为给客户配置不同硬盘而采购不同的背板和线缆。
      • 可连接更多的设备
      • SAS技术引入了SAS扩展器,使SAS系统可以连接更多的设备,其中每个扩展器允许连接多个端口,每个端口可以连接SAS设备、主机或其他SAS扩展器。
    • 高可靠性

    • 器件可靠性同SCSI硬盘、FC盘,比SATA好。

    • 保留了经过验证的SCSI命令集。

    • 高性能

    • 端口单向速率高。

    • 与SATA兼容

    • SATA硬盘可以直接装入SAS环境里。

    • 可以在同一个系统里使用SATA或SAS盘,符合现在日益流行的分级存储战略。

    • SAS相对SCSI而言,最重要的提升在于:

    • 因为采用串行通信方式,可以提供更高的吞吐量,并为将来更高的性能成为可能。

    • 四个窄端口可以绑定成一个宽端口(Wide Link),提供更高的吞吐量。

    • SAS采用全双工(双向)通信模式,而不是单向通信。传统的并行SCSI只可以在一个方向上进行通信,当设备接收到并行SCSI的一个数据包后,如果该设备要响应该数据包,就需要在上一个链路断开后,再重新建立一个新的SCSI通信链路。而SAS,则可以进行双向通信。每个SAS电缆有4根电缆,2根输入2根输出。SAS可以同时进行数据的读写,全双工的数据操作提高数据的吞吐效率。

    • 大多数存储设备供应商现使用SAS线缆连接硬盘框到控制框,或者硬盘框之间的互连。SAS线缆通常将4个独立的通道(窄端口)捆绑成一个宽端口来提供更多的带宽。4个独立的通道都可以在12 Gb/s上进行,因此整个宽端口可以提供48 Gb/s 的带宽。为了确保SAS线缆上的数据量不超过整个SAS线缆的最大带宽,因此我们需要限制被连接在一个SAS环路上的硬盘的总个数。

    • 对于华为的设备来说,这个最大硬盘数是168块盘,也就是说最多7个24个硬盘槽位的硬盘框组成一个环路。但是,这个前提条件是在该环路中的所有硬盘都是传统的SAS硬盘。现在SSD盘用得越来越多了,我们必须意识到SSD盘传输速度远远高于SAS盘。因此对于SSD盘,最大环路硬盘数的最佳实践则为96块盘,也就是4个24个硬盘槽位的硬盘框组成的环路。

    • SAS线缆接口在SAS线缆单通道为6Gb/s时称为 Mini SAS 线缆,现在单通道速度提升到12Gb/s了,其相应的SAS线缆称为高密度Mini SAS线缆。

    • FC是一种高性能的串行连接标准。其接口传输速率为4Gbps 、8Gbps、16Gbps或更高速率。传输介质可以选择铜缆或光纤,传输距离远,支持多种互联拓扑结构

    • Fibre Channel的定义:也就是“ 状通道”的意思,简称FC。Fiber和Fibre只有一字之差,所以产生很多误解。FC只代表Fibre Channel,而不是Fiber Channel,后者被翻译为“光纤通道”。像TCP/IP一样,FC协议集同样具备TCP/IP和以太 中的很多概念,例如:FC交换机、FC路由器、SPF算法等。完全可以将FC协议理解为SAN中的TCP/IP,因为他们都遵循OSI模型。

    • FC协议其实并不能翻译成光纤协议,FC的链路介质可以是光纤、双绞线或同轴电缆,只是FC协议普遍采用光纤作为传输线缆而不是铜缆,因此很多人把FC称为光纤通道协议。

    • FC协议优点:高带宽、高可靠性、高稳定性、低延迟、抵抗电磁干扰,等优点,能够提供非常稳定可靠的光纤连接,容易构建大型的数据传输和通信 络,目前支持1x、2x、4x和8x的带宽连接速率,随着技术的不断发展该带宽还在不断进行扩展,以满足更高带宽数据传输的技术性能要求。

    • 光纤通道的主要部分实际上是FC-2。其中从FC-0到FC-2被称为FC-PH,也就是“物理层”。光纤通道主要通过FC-2来进行传输,因此,光纤通道也常被成为“二层协议”或者“类以太 协议”。

    • 光纤通道的数据单元叫做帧。即使光纤通道本身为五层,但是大部分光纤通道是指第二层协议。一个光纤通道帧最大2148字节,而且光纤通道帧的头部与以太 数据包不同。光线通道只使用一个帧格式,在多个层上完成各种任务。

    • 帧的功能决定其格式。光纤通道帧起始于帧开始(SOF)标志,随后是帧头部,稍后我们将讨论帧头。然后是数据,或光纤通道内容,最后是帧结束(EOF)标志。这样封装的目的是让光纤通道可以在需要时被其他类似于TCP这样的协议所承载。

    • 光纤通道和SCSI之间的关系:光纤通道不是SCSI的替代品。光纤通道将使用帧传输SCSI的指令和状态信息。SCSI是位于光纤通道协议栈FC4的上层协议,SCSI是FC协议的子集。

    • 当传输大量的数据时,将有大量的帧需要被发送。当一组帧作为一批被发送时,我们称之为一个交换。

      • FCoE(Fibre Channel over Ethernet)可以提供标准的光纤通道原有服务,如发现、全局名称命名、分区等,而且这些服务都可以照标准原有的运作,保有FC原有的低延迟性、高性能。

      • 从FC协议的角度来看,FCoE就是把FC承载在一种新型的链路上,即以太 二层链路。需要注意的是,这个以太 必须是增强型无损以太 ,才能满足FC协议对链路层的传输要求。

      • FCoE的特点:

        • 协议标准组织:2008年提交美国国家标准委员会(ANSI)T11 委员会进行审批,需要与IEEE密切配合。
        • 协议目标:FCoE希望利用以太 的拓展性,同时保留光纤通道在高可靠性和高效率方面的优势。
        • 其他挑战:FC与以太 相结合,需要克服防止丢包、路径冗余和故障切换、帧分段与重组、无阻塞传输等方面的问题。
        • FC固有的兼容性差、不支持远距离传输两大问题,FCoE同样无法解决
      • 备注:VoIP = Voice over IP。一种在以太 上传输音频和视频数字技术的方法

      • FC型光纤连接器:FC是Ferrule Connector的缩写,表明其外部加强方式是采用金属套,紧固方式为螺丝扣。此类连接器结构简单,操作方便,制作容易,但光纤端面对微尘较为敏感,且容易产生菲涅尔反射,提高回波损耗性能较为困难。

      • SC型光纤连接器:SC是Square Connector的缩写,其外壳呈矩形,所采用的插针与耦合套筒的结构尺寸与FC型完全相同,其中插针的端面多采用PC或APC型研磨方式;紧固方式是采用插拔销闩式,不需旋转。此类连接器价格低廉,插拔操作方便,介入损耗波动小,抗压强度较高,安装密度高。

      • 按光纤端面形状分有FC、PC(包括SPC或UPC)和APC

        • FC型—Flat Connect:称为平面连接器,采用的陶瓷插针的对接端面是平面接触方式(FC)。此类连接器结构简单,操作方便,制作容易,但光纤端面对微尘较为敏感,且容易产生菲涅尔反射,提高回波损耗性能较为困难。回波损耗:40dB
        • PC型— Physical Connect:称为球面连接器,其对接端面呈球面的插针(PC),而外部结构没有改变,使得插入损耗和回波损耗性能有了较大幅度的提高。回波损耗:40dB
        • APC型—Angle Physical Connect:称为研磨式球面连接器,与PC型类似。回波损耗:55dB
      • ST型光纤连接器:ST和SC接口比较类似,不同的是ST连接器的芯外露,SC连接器的芯
        在接头里面。对于10Base-F连接来说,连接器通常是ST类型的,对于100Base-FX来说,
        连接器大部分情况下为SC类型的。

      • MT-RJ型连接器:MT-RJ是Multi Transmit-Receive Joint,是多芯发送接收一体的连接器,它带有与RJ-45型LAN电连接器相同的闩锁机构,通过安装于小型套管两侧的导向销对准光纤,为便于与光收发信机相连,连接器端面光纤为双芯(间隔0.75mm)排列设计,是主要用于数据传输的下一代高密度光纤连接器。

      • LC型连接器:LC是Lucent Connector的缩写,顾名思义是由朗讯公司研究开发出来的,采用操作方便的模块化插孔(RJ)闩锁机理制成。其所采用的插针和套筒的尺寸是普通SC、FC等所用尺寸的一半,为1.25mm。这样可以提高光纤配线架中光纤连接器的密度。目前,在单模SFF方面,LC类型的连接器实际已经占据了主导地位,在多模方面的应用也增长迅速。

      • MU型连接器:MU是Miniature Unit Coupling的缩写,是以目前使用最多的SC型连接器为基础,由NTT研制开发出来的世界上最小的单芯光纤连接器。该连接器采用1.25mm直径的套管和自保持机构,其优势在于能实现高密度安装。利用MU的l.25mm直径的套管,NTT已经开发了MU连接器系列。随着光纤 络向更大带宽更大容量方向的迅速发展和DWDM技术的广泛应用,对MU型连接器的需求也将迅速增长.

      PCle

    • PCI Express标准的制定是着眼未来的,它还在继续发展为系统提供更高的吞吐量。第一代PCIe约定的吞吐量是2.5千兆位/秒(Gbps),第二代则达到5.0Gbps,而最近发布的PCIe3.0标准则能支持8.0Gbps的速率。在PCIe标准继续利用最新的技术以提供不断增加的吞吐量的同时,利用分层协议、通过使驱动程序保持与现有PCI应用的软件兼容性将简化从PCI到PCIe的过渡。
      PCIe协议的特性包括:

      • 点对点连接
      • 高可靠
      • 树形组
      • 全双工
      • IB

      • InfiniBand标准定义了一套用于系统通信的多种设备,包括信道适配器、交换机和路由器信道适配器用于同其它设备的连接,包括主机信道适配器(HCA)和目标信道适配器(TCA).

      • Infiniband协议的主要特点:

      • 基于标准的协议:成立于1999年的InfiniBand贸易协会由225家公司组成,它们共同设计了该开放标准。主要掌控该协会的成员包括:Agilent, Dell, HP, IBM, InfiniSwitch, Intel,Mellanox, Network Appliance和Sun Microsystems公司。其他的100多家成员则协助开发和推广宣传该标准。

      • 速度:Infiniband每秒10gigabytes的性能明显超过现有的Fibre Channel的每秒4 gigabits,也超过以太 的每秒1 gigabit的性能。

      • 内存:支持Infiniband的服务器使用主机通道适配器,把协议转换到服务器内部的PCI-X或者PCI-Xpress总线。HCA具有RDMA功能,有时也称之为内核旁路(Kernel Bypass)。RDMA对于集群来说很适合,因为它可以通过一个虚拟的寻址方案,让服务器知道和使用其他服务器的部分内存,无需涉及操作系统的内核。

      • 传输卸载(Transport Offload):RDMA 能够帮助传输卸载,后者把数据包路由从OS转到芯片级,节省了处理器的处理负担。要是在OS中处理10 Gbps的传输速度的数据,就需要 80 GHz处理器。

      • IBA原希望成为运算、通讯、储存等设备的机内、机外标准接口,不过IBA一开始就丧失了通讯设备的机内运用可能,因为通讯设备业者多已实行Rapid I/O,使IBA只能先将目标订于运算及储存设备,但也适逢 络型储存、储域 络(Storage Area Network;SAN)的快速兴起,使光纤信道(FC)获得成长普及,之后IBA转向运算设备,原可望取代PCI,然而PCI-X已先行卡位,且PCI-X提出后的不到两年时间Intel再提出接替PCI-X的PCIe,使得IBA用于设备机内的可能微乎其微,就连Intel的主要竞争业者:Sun、AMD等也倾向在运算设备机内使用HyperTransport/HTX,而非IBA(Infiniband Architecture)。

      • 机内没有机会,IBA只能朝机外高速连接的领域发展,虽然PCI、PCIe、Rapid I/O等都尚无机外连接方案,但不幸的是FC亦在外接方面开展迅速,IBA必须与FC争抢地盘,FC传输表现虽输IBA,但价格却相对低廉,加上相近时间内Ethernet从1Gbps进展至10Gbps,且其光纤传输(IEEE 802.3ae)、铜线传输(IEEE 802.3an)标准也先后于2002年、2005年正式定案。

      • IBA终于在集群式超级计算机上找到发挥,由于FC只至2Gbps、4Gbps,10Gbps Ethernet尚不够成熟,延迟控制也尚待精进,放眼望去最合适的便是IBA,IBA低延迟、能以10Gbps为基准单位进行倍增传输,使得全球前五百大效能的超级计算机中有相当多套系统都使用上IBA,或至少是IBA与其它高速联机的搭配混用。

      • 然而,金字塔至顶的五百大超级计算机毕竟是少数,其用量规模难以长期支撑IBA产业及其生态永续发展,必须往更普遍的集群运算应用开拓,然而从顶级往中下层面推行,依然遭遇到与FC、GbE冲突的课题,同时也要面对一些业者的专属特用技术,如Quadrics的QsNet,或Myricom的Myrinet。
        ?

      • 现在谈论InfiniBand,主要应用在服务器集群,系统之间的互连,并在存储、数据中心以及虚拟化等领域得到应用,以下简称IB。

      • 对SDR, DDR,FDR-10, 和 QDR, 使用 8b/10b编码 :每10 bits 包含8bits 的数据

      • 对FDR 和EDR, 使用 64b/66b编码 :每66 bits 包含64 bits的数据

      • 剩余的2bits为帧起始位和帧结束位
        -有效的单向理论吞吐量(实际的数据速率,非信令速率)会低于此数值。

        • CIFS:

          • 1996年,微软提出将SMB改称为CIFS(Common Internet File System),并加入了许多新的功能。现在CIFS指SMB的统称,具体各个版本分别为SMB1,SMB2,SMB3.0。SMB是一种客户端/服务器,请求/响应模式。
          • SMB(Server Message Block)最初是IBM的贝瑞·费根鲍姆(Barry Feigenbaum)研制的,其目的是将DOS操作系统中的本地文件接口“中断13”改造为 络文件系统。SMB协议主要用于在计算机间共享文件、打印机、串口等。
          • SMB从1988年至今不断完善,历经多个版本,从SMB发展到SMB2(2007)SMB3(2012)。
          • CIFS(Common Internet File System)是由微软开发用于连接Windows客户机和服务器的文件共享协议。
          • CIFS是微软开发和使用的SMB(Server Message Block)公开后形成的标准。SMB主要用于 络上的计算机共享文件、打印机和串行端口等资源。
          • 经过UNIX服务器厂商重新开发后,SMB可以用于连接UNIX服务器和Windows客户端,执行打印和文件共享等任务。
        • CIFS业务特点:

          • 兼容多种操作系统,可以实现异构 络环境下的文件资源共享。
          • CIFS共享的单位是目录,所共享的目录可被多个客户端访问。
          • 以集群方式对外提供共享服务,节点间可相互监控服务状态。
          • 可根据业务和节点状态实现负载均衡,数据访问在集群内均匀分布。
        • NFS:

          • NFS(Network File System)是当前主流异构平台共享协议之一,主要应用在Linux、UNIX环境中。NFS可用于不同类型计算机、操作系统、 络架构和传输协议的环境,提供 络文件远程访问和共享服务。
          • NFS SERVER采用集群部署形式。
          • NFS SERVER部署在各个存储服务器上,是分布式、全对称集群架构。
          • 在Linux/UNIX/AIX/HP-UX/Mac OS X等类UNIX系统中提供 络文件系统存储服务。允许用户像问本地文件一样访问其他系统上的文件。提供对无盘工作站的支持以降低 络开销。
          • 简化应用程序对远程文件的访问使得不需要因访问这些文件而调用特殊的过程。
        • NFS业务特点:

          • 兼容多种操作系统,可以实现异构 络环境下的文件资源共享。
          • NFS共享的单位是目录,所共享的目录可被多个客户端访问。
          • 以集群方式对外提供共享服务,节点间可相互监控服务状态。
          • RPC(Remote Procedure Call)—远程过程调用,它是一种通过 络从远程计算机程序上请求服务,而不需要了解底层 络技术的协议。RPC协议假定某些传输协议的存在,如TCP或UDP,为通信程序之间携带信息数据。在OSI 络通信模型中,RPC跨越了传输层和应用层。RPC使得开发包括 络分布式多程序在内的应用程序更加容易。

          • RPC采用客户机/服务器模式。请求程序就是一个客户机,而服务提供程序就是一个服务器。首先,客户机调用进程发送一个有进程参数的调用信息到服务进程,然后等待应答信息。在服务器端,进程保持睡眠状态直到调用信息到达为止。当一个调用信息到达,服务器获得进程参数,计算结果,发送答复信息,然后等待下一个调用信息,最后,客户端调用进程接收答复信息,获得进程结果,然后调用执行继续进行。

            常用存储协议详细说明(SCSI、SAS、FC、PCle、IB、CIFS、FTP、HTTP)【5】
          • DNS:domain name service,用于实现域名和IP的映射.

          • AD: active directory, AD域,提供目录服务.

          • CIFS协议主要用于文件共享,这里介绍两个典型的应用场景:

          • 文件共享服务场景

          • 文件共享服务是最典型的应用场景,其主要应用于企业文件服务器,媒资等等,为用户提供文件共享服务。

          • Hyper-v虚拟机应用场景

          • 微软主推H

            声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

  • 上一篇 2021年1月2日
    下一篇 2021年1月2日

    相关推荐