CN101512482A - 多线程分组处理体系结构 - Google Patents

多线程分组处理体系结构 Download PDF

Info

Publication number
CN101512482A
CN101512482A CNA2006800016713A CN200680001671A CN101512482A CN 101512482 A CN101512482 A CN 101512482A CN A2006800016713 A CNA2006800016713 A CN A2006800016713A CN 200680001671 A CN200680001671 A CN 200680001671A CN 101512482 A CN101512482 A CN 101512482A
Authority
CN
China
Prior art keywords
packet
grouping
thread
memory
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006800016713A
Other languages
English (en)
Other versions
CN101512482B (zh
Inventor
威尔·伊瑟顿
厄尔·科亨
安迪·费戈哈特
唐纳德·E·斯特斯
约翰·威廉斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cisco Technology Inc
Original Assignee
Cisco Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cisco Technology Inc filed Critical Cisco Technology Inc
Publication of CN101512482A publication Critical patent/CN101512482A/zh
Application granted granted Critical
Publication of CN101512482B publication Critical patent/CN101512482B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/56Queue scheduling implementing delay-aware scheduling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/60Router architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling

Abstract

一种网络处理器具有许多新颖的特征,包括多线程处理器阵列、多轮回处理模型和具有硬件管理的分组存储装置的全局分组存储器(GPM)。这些独特的特征允许网络处理器以高数据速率执行高接触型分组处理。网络处理器还可利用基于堆栈的高级编程语言(例如C或C++)来编码。这允许了将软件特征更迅速、更高质量地移植到网络处理器中。当额外的处理特征被添加时,处理器性能也不会严重降低。例如,通过将处理元件分派给不同的有限持续时间到达处理任务和可变持续时间主处理任务,可更智能地处理分组。再循环路径在不同的到达和主处理任务之间移动分组。其他新颖的硬件特征包括将协同处理器操作与多线程处理操作高效混合并提高了缓存亲和力的硬件体系结构。

Description

多线程分组处理体系结构
技术领域
本发明的一个实施例涉及通信和计算机系统,更具体而言涉及路由器、分组交换系统和其他网络分组处理设备。
背景技术
通信工业正在迅速变化以适应新兴的技术和不断增长的客户需求。对于新的网络应用和更高性能的需求正要求通信网络以更快的速度(例如更高的带宽)工作。许多通信提供商使用分组交换技术来实现这些目标。例如,使用支持因特网协议(IP)的分组交换和路由技术。
网络处理器几年来已被用于分组交换网络中,以中等到较高的分组处理速率提供划算的“高接触型(high touch)”分组服务。网络处理器经常有专门的微引擎用于分组处理应用。但是,网络处理器一般是难以编程的,尤其难以被编程以新特征。处理器还经常在启用额外的软件特征时陷入严峻的性能处境。
还存在在单个芯片上提供多个处理器的网络处理器体系结构。这些多处理器设备可包括分组处理辅助装置和专门的接口。这些多处理器体系结构通常是可以用C编程语言来编码的通用设备。但是,这些体系结构的通用性往往会限制它们的可缩放性和吞吐量。
一些网络处理器局限于C编程语言的非ANSI子集。由于缺乏清洁的堆栈模型,这些处理器不能被认为是通用的。
其他网络处理器体系结构使用处理器流水线,并且还可包括用于分组处理和其他处理器间通信的特殊硬件辅助装置。但是流水线处理器系统经常是非对称的,也就是说不是所有处理器都具有对所有资源的相同访问权限。
因此,需要一种具有更高的分组处理能力、可缩放性和工作灵活性的网络处理器。本发明解决了这一问题以及与现有技术相关联的其他问题。
发明内容
根据本发明的网络处理器具有许多新颖的特征,包括多线程处理器阵列、多轮回处理模型和具有硬件管理的分组存储装置的全局分组存储器(GPM)。这些独特的特征允许网络处理器以高数据速率执行高接触型分组处理。网络处理器还可利用基于堆栈的高级编程语言(例如C或C++)来编码。这允许了将软件特征更迅速、更高质量地移植到网络处理器中。
当额外的处理特征被添加时,处理器性能也不会严重降低。例如,通过将处理元件分派给不同的有限持续时间到达处理任务和可变持续时间主处理任务,可更智能地处理分组。再循环路径在不同的到达和主处理任务之间移动分组。其他新颖的硬件特征包括将协同处理器操作与多线程处理操作高效混合并提高了缓存亲和力的硬件体系结构。
从以下参考附图对本发明的优选实施例的详细描述中,可以更容易清楚本发明的前述和其他目的、特征和优点。
附图说明
图1是多线程分组处理器的框图。
图2是描述图1中的分组处理器的某些操作的流程图。
图3和4是示出分组处理器中的处理元件之间的通信的图。
图5是分组处理器中的全局分组存储器所使用的数据结构。
图6是分组处理器中使用的分组处理元件(PPE)的详细框图。
图7和8是示出PPE中的不同线程如何被分配分组的框图。
图9A和9B是示出到达和主分组处理任务如何被分配给不同线程的图。
图10A、10B、11A和11B示出分组处理器如何利用再循环来更智能地处理分组。
图12A和12B示出分发群组如何被用于提高缓存亲和力。
图13和14示出工作在分组处理器中的双层存储器映射系统。
图15示出协同处理器分组处理如何与多线程分组处理操作相混合。
图16和17示出如何在分组处理器中提高缓存一致性(cachecoherency)。
具体实施方式
图1是多线程分组处理器100的框图。分组101被分组处理器100所接收,并且一般经由复用器102被存储在全局分组存储器(GPM)104中。在分组被接收后,GPM 104构建一个关联的分组句柄数据结构(图5),然后将分组加入到由锁定管理器和重定序器120操作的流程锁定(flow lock)队列上。在接收到从锁定管理器120返回的答复之后,GPM104指示分发器106将分组101分配给分组处理元件(PPE)110。
PPE 110通过资源互连108处理GPM 104中的分组。PPE 110还可使用第二层(L2)缓存112、动态随机访问存储器(DRAM)控件114和查找控件116来访问外部存储器115。外部三元内容可寻址存储器(TCAM)119也可被PPE 110通过资源互连108和TCAM控制器118访问。在一个实施例中,PPE 110是多线程的。但是,下文描述的某些特征可由具有或不具有多线程能力的任何通用处理单元所执行。
PPE 110在其完成处理分组时通知锁定管理器120。然后PPE 110就可自由地开始处理其他分组。在被PPE 110处理之后,分组继续驻留在GPM104中,并且可以按分散的非毗邻方式存储在GPM 104中。搜集机构122负责搜集分组的分散部分并将其再组装在一起。锁定管理器120与搜集机构122一起工作以确定组装的分组123被从GPM 104发送到缓冲器-队列-调度器(BQS)存储器控制器124的最终顺序。BQS 124对分组进行排队、调度和出队,以使PPE 110能够免除这一耗时的任务。外部存储器125被BQS 124用作分组缓冲器,用于在不同的到达和主处理操作之间存储分组,等等。再循环路径132被BQS 124用于将分组再循环回GPM 104以供PPE 110进一步处理。
各种专门的分组处理辅助装置,例如转发信息数据库(FIB)查找、TCAM访问控制器118、对存储器的原子操作、策略管理器(policer)、加权随机早期检测(WRED)、散列和模数等等,也使得分组处理器100能够提供更高的性能水平。分组处理辅助装置还提供对已知数据结构的硬件原子更新,以允许对代表经过网络处理器的大带宽流的结构进行高性能更新。
分组处理器100中的资源是指能够被PPE 110访问的任何不同的功能元件。例如,L-2缓存112、外部存储器115、外部TCAM 119、GPM104、协同处理器634(图15)等等都被认为是资源。
图2更详细地示出了分组处理器100的一个实施例的一般操作。在块142中,分组101被接收并存储在GPM 104中。在分组被接收之后,GPM104发出与分组所属的流(例如在其上接收到分组的接口)相对应的锁定请求。在另一实施例中,可以基于分组内容来识别流。
在块144中,分发器106识别用于分配给分组的线程。在锁定请求被确认回GPM 104之后,分发器106将分组分派通知给该线程。在块146中,分派的线程从GPM 104检索分组的相关部分(例如头部以及可能的其他字段),并且处理此信息和/或其他信息来识别与分组相关联的流程/锁定(如果存在的话)。然后线程继续处理分组。
根据判决块148中所确定的,如果要执行转换操作,则线程在块150中将转换指令关联/附加到当前的锁定请求。在当前的锁定请求被获取时,例如当相应的转换标识符到达相应锁定队列的头部时,锁定管理器120执行(或者使另一机构执行)将当前锁定转换成新锁定的指令,然后释放当前锁定。如果需要额外的锁定转换,则块152重复块150中的操作。
在块154中,当线程完成对分组的处理时,线程向锁定请求附加搜集指令。在判决块156中,锁定管理器120等待与分组相关联的分组句柄(handle)到达锁定队列的头部。锁定管理器120随后在块158中指示搜集机构122组装分组并将组装的分组123(图1)转发到BQS 124。锁定管理器120随后释放锁定和分组句柄。
图3示出了分组处理器100中的初始操作和消息传递。该图中的操作按垂直顺序进行,从顶部开始向底部进展。多个PPE 110一般同时处理分组。同一个PPE 110也可利用不同的线程同时处理多个分组。从而,下文描述的某些操作的顺序可能取决于流程锁定获取的标识符所需的时间、分组处理操作等等而不同。
特定分组被接收(210)并被存储(211)到GPM 104中。标识实际分组数据被存储在GPM 104中何处的分组句柄数据结构被分配。分组句柄数据结构将在下文于图5中更详细描述。与分组句柄数据结构相对应的分组句柄被传输(212)到分发器106。分发器106在目前有空闲线程(freethread)可用的情况下或者在有空闲线程变得可用之后分配(213)一个空闲线程,并且向GPM 104标识(214)该线程。
为了维护接收分组的队列,GPM 104向流程锁定管理器120发送流程锁定请求(215)。流程锁定管理器120对分组执行(216)锁定请求,并且通知(217)GPM 104,或者还可能通知分发器106。在锁定请求被确认之后,分发器106于是就被允许通知(218)分派的线程开始处理分组。在一个实施例中,通知(218)还用来向线程确认对前一分组的处理的完成。在另一实施例中,锁定确认217被发送到GPM 104,GPM 104随后指示分发器106通知线程。
线程请求(219)并接收(221)来自GPM 104的与分组相对应的分组头部以及可能的其他字段和/或信息。在一个实施例中,GPM 104基于图5中描述的分组句柄和线程ID来检索(220)该信息。
基于从GPM 104接收的信息,线程对分组进行分类(222),以识别可能存在的与子流相对应的要转换的额外锁定。线程向流程锁定管理器120提交(223)转换请求。流程锁定管理器120识别(224)与分组相对应的锁定标识符并添加转换指令。流程锁定管理器120随后向线程确认(225)转换请求已被添加。线程继续处理(226)分组。在当前的流程锁定被利用锁定标识符获取(227)时,其附加的指令被执行(227),这包括转换到新的锁定并释放先前的当前锁定。当然,这只是分组处理器100可执行的处理的一个特定部分的一个示例。
图4示出了可用于完成分组处理的一个场景,例如用于搜集分组并将其发送到BQS 124(图1)的操作。线程继续对分组的处理(226)。在完成分组处理之后,线程向流程锁定管理器120发送指令(231),例如:分组搜集、将流程锁定转换为空(即不转换)以及释放流程锁定。流程锁定管理器120查找(232)与分组相对应的流程锁定标识符,并且作为响应,通知(233)分发器106释放线程。
分发器106释放线程以便它能够开始处理另一分组。取决于流量负载,线程可能被立即分派以另一分组,在刚才处理的分组被构建和/或发送之后(例如在搜集操作被执行时)被分派以另一分组,或者在当前处理的分组被实际构建和/或发送之后被分派以另一分组。任何之后分派的分组可以位于GPM 104中的相同或不同位置。
线程可能不被分派以全新的分发的分组。或者,线程可能保存当前分组数据并根据当前分组数据生成新的分组以便进行多播或者分段操作。
当与分组相对应的锁定标识符被获取(234)时,流程锁定管理器120向搜集机构122发布(235)搜集命令,该命令包括与分组相对应的分组句柄。搜集机构122获得(例如请求并接收)分组句柄数据结构的拷贝,随后释放(236)分组句柄和分组句柄数据结构。
搜集请求被搜集机构122入队(237)。当搜集请求被服务时(例如处于搜集队列的头部),实际的分组数据被请求(238)并从GPM 104接收(239)。分组随后被构建并发送(240)到BQS 124,并且在GPM 104内分组数据空间被释放。
在一个实施例中使用单个搜集队列,而在另一个实施例中使用多个搜集队列。一般来说,多个搜集队列将通过一个或多个特性来区分,例如流量的优先级和/或类型、服务质量(QoS)、调度信息等等。
图5示出了GPM 104中用于存储和标识分组数据的数据结构的一个示例。分组句柄数据结构304A-304N一般是利用分组句柄302A-302N来访问的,所述分组句柄302A-302N可以是指针、偏移量值或者其他参考或地址值。在一个实施例中,分组句柄数据结构304A-304N被线程402(图6)用来访问分组存储器311中的不同的数据段312和314。某些数据段312可包含实际的分组数据,而其他数据段312可包含与分组相关联的控制数据。
对于不同的实施例分组句柄数据结构304可以是不同的,但是它一般包括诸如线程标识符(线程ID)306这样的描述符以及一个或多个指针308和310。例如,GPM开始位置指针308指向与特定分组(例如分组1)相关联的第一数据段312A。第一数据段312A可包含分组1的控制信息。GPM结束位置指针310指向分组1的最末数据段312D。类似地,第二分组句柄数据结构304B包括线程ID 306和指向分组存储器311中与另一分组(分组2)相关联的其他数据段314的指针308和310。
与特定分组相关联的数据段312可能分散在分组存储器311中的不同的非毗邻位置。一个单独的映射表(未示出)可包含将第一分组的不同数据段312彼此链接起来的链接316。该映射表包括将另一个不同分组的数据段314彼此链接起来的其他链接,例如链接317。
分组句柄数据结构304可以可选地包括标识分组存储器311中最近被访问的数据段的一个或多个动态缓存指针320。例如,分组1的分组句柄302A中的地址偏移量Y可能访问了分组存储器311中的相应的数据段312C。GPM 311将偏移量值Y和数据段312C的相应物理地址写到分组句柄数据结构304A中的动态缓存指针320之一中。
之后的分组句柄302A可包括动态缓存指针320中与地址偏移量Y接近的地址偏移量。GPM 104于是可利用动态缓存指针320直接跳到数据段312C。如果识别出的数据段312C不包含与分组句柄302A中的地址偏移量相对应的分组数据,则GPM 104可以从指针316C开始,从而链接到正确的数据段312。这与必须从第一分组数据段312A开始并随后顺序跳到每个后继的链接316直到定位到正确数据段312的情形相比要更快。
在一个实施例中,GPM 104识别具有最接近但不小于分组句柄302中的偏移量地址值的地址偏移量值的动态缓存指针320。GPM 104从识别出的数据段312C的链接指针316C开始,以链接到正确的数据段。
在另一个实施例中,GPM 104可包括反向指针312和314。在该实施例中,GPM 104可识别与分组句柄302中的偏移量值绝对最接近的动态缓存指针320,而不论识别出的动态缓存指针320是在分组句柄值之上还是之下。GPM 104随后可根据需要在数据段顺序中向前跳或向后跳。
即使PPE 110已经完成了对分组的主动处理,分组句柄数据结构304和分组存储器311中的数据段312和314仍继续驻留在GPM 104中(占有)。分组句柄数据结构304和关联的数据段312和312一般在GPM 104中保持有效,直到分组数据被传送到BQS 124(图1)。这允许了除PPE110之外的资源对GPM 104中的分组数据执行任务。
对称处理
对称处理允许了在分组处理器100中工作的公共软件在任何PPE 110上运行任何线程。对于任何特定的PPE 110或线程都不需要处理专门化。从而,每当线程完成对分组的处理时,线程可被分发器106分派以任何新的分组,并且执行任何必要的分组处理任务。分组处理器100的另一个重要的特征是线程可以完成对某个分组的处理、被指派以新的分组并且开始处理该新分组,而不必等待先前处理的分组被输出到网络。例如,线程不必等待先前处理的分组被搜集和发送到BQS 124(图1),也不必等待分组被BQS 124从分组处理器100输出。
为了进一步说明,图6示出了PPE 110之一的更详细的图。中央处理单元400可操作多个线程402。在该实施例中,每个线程402具有关联的数据缓存(DCACHE)标签和缓存控制器404A,并且共享一个DCACHE数据阵列404B。线程还共享同一个指令缓存(ICACHE)406。也可能有其他缓存配置,其中线程402都访问同一个DCACHE 404,或者每个线程具有单独的ICACHE 406。DCACHE 404和ICACHE 406都可通过资源互连108访问外部存储器115和GPM 104。在一个实施例中,ICACHE 112还可通过L-2缓存112访问外部存储器115,而DCACHE可直接访问外部存储器115。当然,也可能有其他存储器配置,其中DCACHE 404通过L-2缓存112访问外部存储器115,或者ICACHE 406直接访问外部存储器115。
多线程PPE 110通过隐藏等待访问缓慢资源的等待时间来提高吞吐量。资源互连108向所有PPE 110提供对图1所示的所有资源的统一访问。从而,所有PPE 110和所有线程402具有对任何分组执行任何任务的相等的能力。PPE 110各自支持一个堆栈模型并且具有一个转化后备缓冲器(Translation Look-aside Buffer,TLB)(图16)以用于存储器映射。
图7示出了各自操作多个线程402的PPE 110的阵列。为了简便,下文中将分发器106和锁定管理器120总地称为控制器410。到达分组被加载到GPM 104中,并且被排队以等待线程402。控制器403发送指示线程402A开始处理第一分组412A的分配消息414。同时或者在处理分组412A期间的某个时刻,控制器410可发送指示线程402B开始处理另一分组412B的另一分配消息416。
当对分组412A的处理完成时,线程402A向GPM 104和控制器410发送通知418。类似地,当对第二分组412B的处理完成时,线程402B向GPM 104和控制器410发回通知420。应当理解,线程402A或线程402B都可首先完成对分配给其的分组的处理。如果必要,关联的分组句柄数据结构304(图5)上的分组412A和412B保持在GPM 104中,以便进行其他的排序、定序或线程处理操作。
参考图8,在接收到分别来自线程402A或402B的通知418或420(图7)中的任何一个之后,并且在流程锁定被获取之后,控制器410向搜集机构122发送搜集指令426,以对分组412A和/或412B开始搜集操作。同时,控制器410可向线程402A和/或402B分配另一分组。例如,分配指令422指示线程402A开始处理新的分组412C,而分配指令424指示线程402B开始处理新的分组412D。
在具有多个线程的其他网络处理单元中,流程锁定机构的缺乏阻碍了线程间的真正对称的处理并行化,从而要求流水线,或者导致对处理资源的利用不充分。但是,分组处理器100中的PPE 110和线程402在通知锁定管理器120对前一分组的处理完成之后可立即开始处理新的分组。这允许了PPE 110和关联的线程在先前处理的分组仍在GPM 104中被排队和搜集的同时或者在分组仍在BQS 124中被排队的同时开始处理其他分组。从而,PPE 110和线程402仅受到实际处理分组所需的时间量的限制,而不必等待分组被调度或完成输入或输出排队。
分组再循环
再简要地返回参考图1,处理分组所需的时间量可能是不同的。例如,分组可能在不同的链路上乱序到达或者作为片段到达。在等待其他分组或分组片段到达的同时,分组或分组片段101可能必须被缓冲。在分组确实全部到达之后处理分组所需的时间量也可能取决于所启用的特征集而有所不同。例如,不同的处理特征,例如安全性处理或QoS处理,可能要求不同的处理时间量。
在这一可变时间处理期间的很长的等待时间时段可能导致分组队列中的阻塞,并最终导致分组丢弃。某些被丢弃的分组可能是用于维护网络链路的控制分组。其他被丢弃的分组可能影响分组优化级区分。例如,某些被丢弃的分组可能具有比其他分组更高的服务质量值。不幸的是,到达的分组可能在分组处理器有机会考虑关联的控制或QoS信息之前就被无差别地丢弃。
利用图1中的再循环路径132消除、减小或简化了这些问题中的某些。这种多轮回(multi-pass)处理特征支持一个确定性的“到达处理”轮回,该轮回执行最前面的时间有限的分组处理操作。然后可以针对可变运行时间高接触型处理执行第二“主处理”轮回。这种多轮回处理还增强了其他操作,例如提供了更精致的重组、多播等等。
为了进一步说明,图9示出了分成到达处理452和主处理458的整个PPE分组处理。到达处理452可以限于某些相对时间有限的处理工作,而到达处理452可执行可变时间“高接触型”处理操作。在到达处理452和主处理458期间,分组被存储在GPM 104中。第1级排队456和第2级排队由BQS 124提供。例如,BQS 124中的第1级排队456在完成到达处理452之后将分组发回GPM 104。BQS 124中的第2级排队462用于将分组发回GPM 104以便进行额外的主处理458或者将分组发出到网络上。
如上所述,分发器106向PPE 110中的不同线程402分配到达分组处理和主分组处理任务。例如,分发器106可向某个线程子集402A发送分配命令464以便进行到达处理452。类似地,分发器106可向另一线程子集402B发送分配命令466以便进行主分组处理458。
在一个场景中,主处理458可能变得拥塞(瓶颈化),从而第2级排队462可能开始阻塞。如果必要,关于队列长度的信息或者在到达处理452期间确定的其他分组优先级区分信息可被用于作出更智能的分组丢弃判决。从而,分组处理器100可以避免丢弃高优先级分组、控制流量等等。这允许了分组处理器100提供更多的服务,而不会丢弃重要的分组流量。
分组处理器体系结构在以下方面尤其新颖,即它允许分组首先被加载到GPM 104中,被分发器106分配给线程402,然后在线程开始对新分组进行处理的同时使搜集机构122自治地组装分组以便在BQS 124中排队。然后BQS 124与反馈路径132相结合提供允许分组被再循环回GPM 104以便由分发器106进行线程重新分配的独特特征。
图9B概括地描述了分组如何被指定进行再循环。BQS 124(图9A)包括可能与不同的硬件或软件操作相关联的不同队列。例如,需要被再循环以便进行额外的主处理458的多播分组可被加载到高优先级多播队列430A或低优先级多播队列430B中。需要被再循环回GPM 104的控制分配可被加载到控制队列430C中,而需要重组的分组可被加载到重组队列430D中。根432指示BQS 124将队列430中的分组再循环回GPM 104。在一个示例中,根被定义为队列的积聚。
其他队列434和436可能与不同硬件端口的服务成本(QoS)值相关联。队列434的根438可与第一类输入端口相关联,队列436的根440可与第二类输入端口相关联。例如,根438可与接收自吉比特以太网端口的分组相关联,根440可与接收自光学载波(OC)192端口的分组相关联。根438和440可以具有一个关联的根442,根442将在初始的到达处理452后在队列434和436中接收到的分组再循环回GPM 104以便进行主处理458。
BQS 124还可包括其他队列445,这些队列445具有关联的根446,根445不用于再循环而是将关联的分组输出到网络130(图1)。其他队列445可具有将分组直接再循环回BQS 124的关联根444。
分发器106还使用根来分配分组。例如,PPE 110或线程402的不同集合(图9A)可被分派给不同的根。在到达处理452期间或在主处理458期间,只要通过将分组分派到BQS 124中具有再循环根的特定队列,就可以指定该分组被再循环。同时,也可通过将分组分派到具有被分派给PPE110或线程402的特定集合的再循环根的队列,来指定该分组被PPE或线程的特定集合所处理。从而,可由BQS 124执行的“基于速率”的处理可与分发器106执行的基于“处理时间”的调度相混合。
智能分组丢弃
图10A示出了传统的分组处理器469,其中对于分组的所有处理都在单个处理级472期间执行。线路471上的分组可被存储在到达队列470中。分组处理器469处理分组,并随后将经处理的分组存储在输出队列474中,直到它们被输出到网络上为止。
单个处理级472具有可变的处理时间,这种可变的处理时间例如是由不同的分组分段排序或者可能对不同分组执行的不同分组操作引起的。可能出现这样的情形,即分组处理级472阻塞,并且导致分组处理器469无差别地丢弃分组476。例如,最新的到达分组可能是最先被丢弃的分组,而不考虑分组优先级或分组控制状态信息。
在图10B中,在到达处理452中执行初始的速率有限分组处理操作。固定速率到达处理452例如可包括访问控制列表或安全性策略。到达处理452还可包括检查接收到的分组以找出无效源地址,执行服务质量(QoS)操作,或者确定传入的分组是否包含链路控制数据。在另一个示例中,特定的客户可能未被授权以高于特定的分组速率的速率发送数据。到达处理452可识别超过先前协定的传输限度的传入分组流量。
所有这些到达处理操作452都要求相对较短的、有限的处理时间。这允许了网络处理器100以相对较迅速的有保证的分组处理速率完成到达处理452中的任务。从而,在初始的到达处理452期间分组不太可能被丢弃。
如果必要,在分组被加载到第1级排队456中之前,到达处理452可丢弃任何不合格的分组482。这减小了BQS 124中的分组负载,并且还减小了主处理458期间线程上的负载。
当分组确实需要被丢弃时,到达处理452提供了额外的优点,即能够实现更智能的分组丢弃。例如,有时候分组可能仍会在BQS 124中溢出。由于在到达处理452期间已识别分组的更多特性,因此可以作出更智能的分组丢弃判决。例如,到达处理452可识别存储在BQS 124中并被再循环到GPM 104以进行主处理458的分组的QoS信息。如果必要,分组丢弃判决483可以基于在到达处理452期间得出的QoS信息。
负载控制
图11A和11B示出了再循环路径132(图1)被用于负载控制的另一示例。图11A中的主处理458可能需要具有较长的可变处理时间的任务。例如,多播操作可能要求将同一分组复制多次。多播操作所涉及的线程可能会被占用很长的一段时间。如果大多数或所有线程都被占用来处理多播分组,那就可能没有足够的线程来处理其他主处理操作,并且可能阻碍对原先需要的资源的分配。
如图11A所示,主处理458要求三个不同的多播操作,每个操作要求多播分组的16次复制。图11B示出了对于每个主处理会话458如何将多播操作限制在8次分组复制。如果多播分组必须被复制多于8次,则在8次复制之后,分组被加载到BQS124中指定用于再循环的特定队列中,如上文在图9B中所述。多播分组460随后经由再循环路径132被再循环回GPM 104,以再次经过主处理458。然后在第二次经过主处理458期间执行剩余的8次分组复制。这允许了线程402在更少的时间中完成主处理会话458,从而释放线程以用于其他分组处理任务。
缓存亲和力(cache affinity)
存在可能促发缓存颠簸(thrashing)的某些分组处理操作。缓存颠簸是指必须反复在缓存和主存储器之间交换数据。这通常是由都必须对同一分组执行的不同的处理操作导致的。向PPE 110随机地分发不同的分组处理任务可能增加缓存颠簸。尤其在PPE 110是多线程的并且线程共享同一指令缓存时更是如此。例如,线程可能正在运行不同的应用,例如不同的分组协议。由于每种协议可能要求不同的处理步骤,因此在指令缓存中可能发生严重的颠簸。
图12A和12B示出了可用于减少缓存颠簸的分组处理器的另一个方面。参考图12A,都优选地执行同一分组处理特征集的线程402的群组可被分派到同一个第一主分发群组524A。例如,主分发群组524A中的所有线程402都可被指定用于与一种或多种相同的分组协议相关联的任务。在另一个示例中,分发群组中的线程402可被分派给在特定的端口群组上接收的分组。在任何一种情况下,在主分发群组524A中指定的线程402都与特定的根520相关联。次分发群组524B也与根520相关联,并且可在主分发群组524A中的所有线程402都不可用时被使用。
类似的主分发群组526A和次分发群组526B与第二根522相关联。当然,主分发群组和次分发群组的数目可取决于根的数目而不同。在一个实施例中,位图(bitmap)被用于识别主分发群组和次分发群组中的线程。
参考图12B,在块500中,设置分发群组的位图。在块502中,分发器106(图12A)识别与分组相关联的根的主分发群组。在块504中,分发器106查找主分发群组中的空闲线程402。如果来自主分发群组的线程402之一可用,则在块506中分发器106将处理任务或分组分派给该可用线程402。这允许了主分发群组中的线程具有对于与根相关联的操作的亲和力。如果在主分发群组中没有空闲线程402,则在块512中,任务被分派给来自次分发群组的线程402。随后在块508中来自主分发群组或者次分发群组的分派的线程402处理分组。
在块510中,当需要额外的分组处理时,分组数据在块507中被再循环回到主处理458(图9A)。分发器106随后具有同样的机会将分组分派给来自主分发群组的线程402中的另一个。
从而,某些分组处理操作被引导到更可能使用相同的缓存指令的线程子集(亲和力群组)。线程402还可动态地重配置分发群组。例如,线程402可改变分发群组的映射,使得分发器106可向特定的根分派不同的线程。
一个线程可能只被分派到一个或几个主分发群组,但是可能被分派到多得多的次分发群组。这允许了每个根有一个主线程集来执行任务。如果主分发群组中不是所有线程都正被使用,则主分发群组中的可用线程402可通过其关联的次分发群组被动态地重分派给其他根。
多层(multi-level)存储器映射
图13是多层存储器映射特征的逻辑表示。第一存储器映射层(level)或级(stage)由转化后备缓冲器(TLB)600构成,该TLB 600将线程402所生成的虚拟地址映射到不同的资源。第二存储器映射层或级与识别出的资源相关联,并且使用线程ID来将第一存储器映射级生成的地址偏移量映射到识别出的资源中的特定物理地址。在一个示例中,GPM 104资源中的第二存储器映射级是先前在图5中示出的分组句柄数据结构304。
在一个实施例中,为PPE 110中的CPU 601所操作的每个线程402提供单独的TLB 600。TLB 600通过将关联的线程402生成的虚拟地址X转换成访问分组处理器100中的特定资源的偏移量值X’,来充当第一存储器映射级。TLB 600被示为位于PPE 110中,但是也可利用分组处理器100中的其他功能单元来操作。
TLB 600中的不同条目与不同的分组处理器资源相关联。例如,控制状态寄存器(CSR)条目602被线程402用来访问存储不同的控制和寄存器数据的存储器资源。通用存储器条目604用于访问外部存储器115(见图14),例如外部动态随机访问存储器(DRAM)。堆栈条目606用于访问外部存储器115中的位置,在一个示例中这些位置存储私有堆栈数据。分组数据条目608用于访问存储在GPM 104中的分组数据。
如上文在图5中所述,分组句柄数据结构300将TLB 600生成的偏移量值X’映射到分组存储器311中与线程ID相关联的相应物理存储器空间610。这允许了每个线程402引用同一组虚拟分组地址0-N,但却能访问分组存储器311中的不同物理地址空间610。
例如,图13示出了操作线程402A和402B的PPE 110A和操作线程402C的PPE 110B。每个线程402A-402C分别具有关联的TLB600A-600C。当然,在分组处理器100中可驻留任何数目的PPE 110,并且PPE110可操作任何数目的线程402。
每个线程402包括与相应的TLB 600相关联的线程标识符(线程ID)。例如,第一线程402A生成虚拟地址X和关联的线程ID值。线程ID值将虚拟地址X与TLB 600A关联起来。TLB 600A中的条目608将虚拟地址X映射到访问GPM 104(资源)的地址偏移量值X’。线程402A的线程ID被用于访问GPM 104中的关联分组句柄数据结构304A。分组句柄数据结构304A随后进行第二映射,将地址偏移量X’映射到分组存储器311中的特定物理地址区域610A。如图5所示,分组地址区域610A可包括多个非毗邻的数据段,这些数据段包含分派给线程402A的分组的分组数据。
类似地,线程402B与TLB 600B相关联。TLB 600B中的TLB条目608可将线程402B生成的同一虚拟地址X映射到访问同一GPM资源104的同一偏移量值X’。但是,线程402B的线程ID值映射到第二分组句柄数据结构304B。分组句柄数据结构304B随后进行第二映射,将偏移量值X’映射到分组存储器311中的第二物理地址区域610B。从而,TLB 600与分组句柄数据结构304相结合,将线程402生成的虚拟地址映射到GPM104中的唯一物理存储器位置。
图14示出了使用双层存储器映射的另一资源。在该实施例中,TLB600A被线程402A和线程402B两者共享。线程402A或线程402B生成的虚拟地址Y被堆栈区域606映射到与外部存储器资源115相关联的偏移量Y’。从图13中注意到,与分组数据条目608相对应的虚拟地址X被映射到GPM资源104。外部存储器115包括第二存储器映射620,该映射将偏移量值Y’映射到存储器624中的不同物理地址位置622。例如,线程402A的偏移量Y’被映射到物理地址区域622A,而线程402B的同一偏移量Y’被映射到物理地址区域622B。
从而,第一存储器映射级将虚拟地址映射到不同的资源,并且可能将其映射到特定资源内的不同位置,然后第二存储器映射级将由第一级生成的偏移量值映射到与线程ID相关联的特定物理存储器位置。
协同处理(co-processing)
图15示出了根据线程402发布的命令独立地访问GPM 104的一个或多个协同处理器资源634。这允许了混合线程处理和协同处理器处理。在一个实施例中,GPM 104和协同处理器634位于同一芯片上。这允许了协同处理器634被直接附接到GPM 104,而无需任何额外的缓冲。
协同处理器634充当并被线程402视为任何其他资源。如上所述,资源是任何接收来自线程402的命令并发回结果的元件。例如,外部存储器115(图1)是一个资源,GPM 104是另一个资源。充当资源的协同处理器634、自治地访问GPM 104中的分组数据的协同处理器634和PPE 110的多线程能力的组合提供了改进的协同处理器操作性。
例如,第一处理级中的第一线程402A开始处理分组630。如上文在图13中所述,线程402A的线程ID在GPM 104中被用于标识分组630。在第二处理级中,线程402A向协同处理器634发送包括线程ID和到分组630中的偏移量的命令636。协同处理器634包含与协同处理器命令636相对应的算法。协同处理器634利用线程402A提供的线程ID和偏移量来访问并随后开始自治地处理分组630。
取决于软件和分组操作,线程402A可继续与协同处理器634并行地处理分组630。在协同处理器634处理分组630的同时,线程402A也可启动处理相同或不同分组的其他协同处理器634。
协同处理器634在其完成对分组630的处理时向线程402A发回通知638。然后第三处理级中的线程402A完成分组630所需的任何额外的处理。
PPE 110中的多线程化与协同处理器634的自治操作相结合,还允许了其他线程在一个线程可能停止以等待协同处理器634返回结果的同时运行。例如,第二线程402B可继续或开始处理另一分组632,即使线程402A被停止以等待协同处理器634完成对分组630的处理。
协同处理器634执行的处理的一个示例可包括密码术(密码)操作。通常密码处理器位于传统的分组处理器之前。关于这类体系结构存在若干问题。例如,在密码操作之前可能要求分组优先级区分。在密码操作之前可能还要求其他预过滤或解封装操作。但是,在密码操作之后,就在分组被发送出分组处理器前夕,可能要求其他处理操作,例如多链路点到点协议(MLPPP)。
如上文图15中所示,协同处理器634进行的密码处理可以很容易地在由PPE 110执行的其他分组处理之前或之后被混合。从而,分组处理器体系结构在将协同处理操作与其他通用PPE分组处理操作相集成方面更加有效。
在图15中,PPE 110通过资源互连108访问协同处理器634和GPM104。在另一个实施例中,资源互连108可将分组处理元件110与GPM104相耦合,并且并行地将协同处理器634与GPM 104相耦合。
缓存硬件辅助装置
一般来说,网络处理器不是缓存一致的。如果多处理器系统工作在其中每个处理器尝试完全处理一个分组然后才进行到另一分组的运行-完成(run to completion)模型上,那么这就可能造成问题。某些多处理器体系结构可以处理分组的一段,然后将分组移交给另一处理器。当多个不同的处理器各自对同一分组进行一段工作时,不会有那么多一致性问题。例如,当每个处理器对每个分组进行同一工作时,在同一处理器内一般可维持相同的处理器状态,例如数据结构的状态。
在分组处理器100的一个实施例中,一个线程可对分组执行所有或大部分工作。如果数据结构延伸到跨分组,则数据需要被高效地定位回主存储器中以供其他线程访问。
图16示出了转化后备缓冲器(TLB)664,该TLB 664包括被中央处理单元(CPU)652访问的TLB条目665。TLB条目665包括虚拟地址范围666、相应的物理地址偏移量668以及可能的额外控制部分669。控制部分669可被用于确定物理地址是否是可读的、可写的、分配和存储器排序参数。存储器访问可在TLB中被指定为被缓冲的(不严格顺序)或不被缓冲的(写同步严格排序)。
TLB 664将虚拟地址666映射到与不同资源相关联的物理地址偏移量668。例如,如上文图13中所述,不同的TLB条目665可与诸如GPM104和外部存储器115之类的不同资源相关联。其他TLB条目可与资源之一内的特定区域相关联,例如与堆栈区域或CSR区域相关联。
缓存650包括标签660,该标签标识包含在缓存行(cache line)658中的数据的物理地址的最高位。在一个示例中,缓存650访问外部存储器115或片上GPM 104。缓存行658可用于指令数据或分组数据。
缓存控制器654是由缓存命令662激活的硬件状态机。缓存控制器654代表在逻辑上可由硬件和/或软件执行的操作。例如,一种指令体系结构可具有软件控制的TLB 664。缓存控制器654可处理正常数据缓存操作(行分配、收回和存储器排序)以及下文描述的页变址(page-indexed)操作。
CPU 652发送引用TLB条目665之一的单个缓存命令662。每个TLB条目665可具有在缓存命令662中标识的关联号码。根据缓存命令662,控制器654对与TLB条目665相关联的所有缓存行658执行缓存操作。
参考图17,在块670中,控制器654接收来自CPU 652的标识特定的TLB条目665的缓存命令662。在块672中,控制器654通过将某个变量值设置为0(cacheline=0)来初始化它自身。这实际上将控制器654指向了缓存650中的第一缓存行658。在块674中,控制器654为cacheline=0读取标签660中的物理地址。
在块676中,控制器654将标签660中的物理地址与缓存命令662中指定的TLB条目的物理地址668相比较。在一个实施例中,缓存行的物理地址是利用多周期(multi-cycle)操作获得的。此外,如果缓存是集合关联型的(set-associative),则缓存行变量被划分成具有若干个路选择(way selection)位和若干个集合选择(set selection)位,以将2-D缓存行阵列映射到整数计数器上。
如果在块676中存在匹配,并且如果缓存行是脏的(dirty),则在块678中控制器执行缓存命令662中指定的缓存操作。如果不存在匹配或者如果缓存行不是脏的,则在块680中控制器654递增变量(cacheline=cacheline+1)。
然后,与下一缓存行658相关联的物理地址被与指定TLB条目665的物理地址668相比较。此过程在块682中重复,直到对与指定TLB条目665相对应的所有缓存行658都执行了缓存命令662中的缓存操作。从而,控制器654自动检查所有标签660并根据单个CPU命令662对与指定TLB条目相对应的所有缓存行执行缓存操作。
控制器654可执行与不同缓存命令662相对应的不同类型的缓存操作。例如,缓存命令662可以是清除(flush)命令,该命令使得在缓存行658中的内容保持有效的同时控制器654将缓存行658的内容发回主存储器。缓存命令662还可以是清除并无效命令,该命令使得控制器654将缓存行658的内容存储回主存储器中,然后使这些缓存行无效。
TLB缓存控制器654确保了缓存650中包含的共享数据结构等被正确地存储回存储器115或104中并可供其他线程使用。这允许了软件在非一致条件下更高效地工作。控制器654还使得PPE软件可免于管理每个缓存操作。
变化
可以实现上述分组处理器100的许多变体。例如,分组可被映射到PPE 110的虚拟或物理地址空间中。资源互连108可采取若干种形式中的任何一种。缓存体系结构可采取若干种形式中的任何一种。PPE 110可实现缓存一致性,也可不实现。GPM 104可按多种方式实现。PPE 110可具有不同数目的线程,并且它们的内部体系结构可能有所不同。BQS 124可被集成到包含其他处理元件的同一芯片中也可不被集成,并且可以更多地以硬件实现,也可按更软件密集的方式实现。
上述系统可使用执行某些或全部操作的专用处理器系统、微控制器、可编程逻辑器件或者微处理器。上述操作中的某些可用软件实现,其他操作可用硬件实现。
为了方便,操作被描述成各种互连的功能块或不同的软件模块。但是,这并不是必要的,可能存在这样的情况,即这些功能块或模块被等同地聚集成边界不清的单个逻辑器件、程序或操作。在任何情况下,灵活的接口的功能块和软件模块或特征可由其自身实现,或者可与其他操作相结合利用硬件或软件来实现。
在利用本发明的优选实施例描述和说明了本发明的原理之后,应当很清楚看到,本发明的布置和细节都可被修改,而不会脱离这种原理。发明人要求保护落在所附权利要求的精神和范围内的所有修改和变化。

Claims (51)

1.一种分组处理器,包括:
一个或多个处理器,其运行一个或多个线程,每个线程具有关联的线程标识符并且生成虚拟地址;
第一存储器映射级,其将所述虚拟地址映射到与不同资源相关联的地址值;以及
与所述不同资源中的一个或多个相关联的第二存储器映射级,其将所述地址值映射到所述资源中与所述关联线程标识符相对应的物理地址区域。
2.如权利要求1所述的分组处理器,其中,所述第一存储器映射级包括与所述线程相关联的一个或多个转化缓冲器。
3.如权利要求1所述的分组处理器,其中,所述第二存储器映射级包括分组句柄数据结构,该分组句柄数据结构使用所述线程标识符和所述地址值来识别与个体线程相关联的分组数据位置。
4.如权利要求2所述的分组处理器,包括将所述虚拟地址映射到第一分组存储器资源的第一转化缓冲器条目和将所述虚拟地址映射到第二外部存储器资源的第二转化缓冲器条目。
5.如权利要求4所述的分组处理器,包括将所述虚拟地址映射到所述第二外部存储器资源内的堆栈区域的第三转化缓冲器条目,并且其中所述第二存储器映射级随后将来自所述第三转化缓冲器条目的所述地址值映射到所述外部存储器中与所述线程标识符相对应的堆栈。
6.如权利要求1所述的分组处理器,包括将分组分配给所述线程的分发器,以及搜集和组装被所述线程处理的分组的搜集机构。
7.如权利要求6所述的分组处理器,包括维护分组句柄数据结构的全局分组存储器,该分组句柄数据结构被所述线程在处理所述分组时使用,并且在所述线程完成所述分组的处理后被所述搜集机构用于搜集和组装所述分组。
8.如权利要求1所述的分组处理器,包括根据从相应的线程接收的线程命令、地址值和线程标识符来访问和处理分组的协同处理器。
9.如权利要求8所述的分组处理器,其中,一个或多个线程与所述协同处理器并行地处理相同或不同分组。
10.一种分组处理器,包括:
一个或多个分组处理器元件,每个分组处理器元件操作一个或多个线程;
存储分组的分组存储器;
分发器,其根据所述分组所需的有限时间到达处理或可变时间主处理将所述分组存储器中的分组分发到所述线程。
11.如权利要求10所述的分组处理器,包括排队系统,该排队系统在完成到达处理和主处理中的每一种之后接收所述分组。
12.如权利要求11所述的分组处理器,包括再循环路径,该再循环路径在完成所述到达处理或所述主处理器之后将所述排队系统中的分组再循环回所述分组存储器。
13.如权利要求12所述的分组处理器,其中,所述再循环路径将所述排队系统中的分组再循环回所述分组存储器,以进行一次或多次额外的主处理轮回。
14.如权利要求12所述的分组处理器,其中,所述主处理部分地完成多播分组的分组复制,然后通过所述再循环路径发回所述多播分组以再一次轮回经过主处理以便继续所述分组复制。
15.如权利要求11所述的分组处理器,其中,所述排队系统包括根和在完成到达或主处理之后存储分组的关联队列,所述根中的某些被配置为将所述关联队列中的分组发回所述分组存储器以便所述线程进行额外主处理的再循环根。
16.如权利要求15所述的分组处理器,包括标识与不同根相关联的主线程的主分发群组,所述分发器优选地利用所述主分发群组来将分组分派给关联的主线程。
17.如权利要求16所述的分组处理器,包括标识与不同根相关联的次线程的次分发群组,所述分发器在关联的主线程不可用时利用所述次分发群组来将分组分派给关联的次线程。
18.如权利要求17所述的分组处理器,其中,所述次线程在多于一个次分发群组中是部分重叠的。
19.如权利要求11所述的分组处理器,包括搜集机构,在先前处理分组的线程处理新分组的同时,该搜集机构搜集所述分组存储器中的分组以便发送到所述排队系统。
20.一种网络处理系统,包括:
一个或多个分组处理元件,每个分组处理元件操作一个或多个线程,每个线程具有关联的线程标识符;
访问与所述线程标识符相对应的不同存储器区域中的分组的存储器单元;
协同处理器,其接收来自所述线程的命令以处理所述分组,并随后利用所述线程标识符来独立地访问和处理所述存储器单元中的分组。
21.如权利要求20所述的网络处理系统,包括操作向所述协同处理器发送命令以处理第一分组的第一线程的第一处理元件,所述第一线程随后等待直到所述协同处理器完成所述第一分组的处理,或者在所述协同处理器处理所述第一分组的同时继续处理所述第一分组的另一部分。
22.如权利要求21所述的网络处理系统,包括所述第一处理元件中或另一个处理元件中的第二线程,该第二线程在所述协同处理器处理所述第二分组的同时处理所述存储器单元中的第二分组。
23.如权利要求20所述的网络处理系统,其中,对于所述存储器单元中的相同存储器位置中的相同分组,所述线程有选择地将其自己的分组处理与所述协同处理器进行的分组处理相混合。
24.如权利要求20所述的网络处理系统,包括资源互连,该资源互连将所述分组处理元件与所述存储器单元相耦合,并且并行地将所述协同处理器与所述存储器单元相耦合。
25.如权利要求20所述的网络处理系统,其中,所述分组处理元件通过同一资源互连访问所述协同处理器和所述存储器单元。
26.如权利要求20所述的网络处理系统,包括被一个或多个所述线程访问的指令缓存和数据缓存。
27.如权利要求20所述的网络处理系统,包括与个体线程相关联的个体数据缓存或个体指令缓存。
28.如权利要求20所述的网络处理系统,包括:
第一地址转化缓冲器,其将线程虚拟地址映射到关联的资源中的地址值;以及
所述关联的资源中的第二存储器映射,其根据关联的线程标识符将所述地址值映射到所述资源中的物理存储器位置。
29.如权利要求20所述的网络处理系统,包括将所述存储器单元中的分组分派给所述线程的分发器。
30.如权利要求29所述的网络处理系统,其中,所述分发器根据与分组相关联的第一到达分组处理级和第二主处理级将所述分组分配给线程。
31.如权利要求30所述的网络处理系统,包括接收首先被所述分发器分配给所述第一到达分组处理级的分组的一个或多个外部端口,以及将分组发回所述分发器以便分配给所述第二主处理级的再循环路径。
32.如权利要求31所述的网络处理系统,包括排队系统,该排队系统在完成所述第一到达分组处理级和所述第二主处理级中的每一个之后接收分组。
33.一种分组处理元件,包括:
操作一个或多个线程的分组处理元件;
与所述线程相对应的一个或多个转化缓冲器,所述转化缓冲器具有与不同资源或所述资源内的不同类型的数据相对应的不同条目;
包含由所述线程访问的缓存行的一个或多个缓存;以及
缓存控制器,其接收来自所述线程的标识所述转化缓冲器条目的缓存命令,并且对与标识出的转化缓冲器条目相对应的所有缓存行执行所述缓存命令。
34.如权利要求33所述的分组处理元件,其中,所述缓存命令之一使得所述缓存控制器将与所述标识出的转化缓冲器条目相对应的所有缓存行的数据存储到主存储器中。
35.如权利要求33所述的分组处理元件,其中,所述缓存命令之一使得所述缓存控制器将与所述标识出的转化缓冲器条目相对应的所有经修改的缓存行的数据存储到主存储器中。
36.如权利要求33所述的分组处理元件,其中,所述缓存命令之一使得所述缓存控制器将与所述标识出的转化缓冲器条目相对应的经修改的缓存行的数据存储到主存储器中,然后使与所述标识出的转化缓冲器条目相对应的所有缓存行无效。
37.如权利要求33所述的分组处理元件,其中,所述控制器接收标识所述转化缓冲器条目之一的单个缓存命令,将所述缓存中的每个标签与对应于所述标识出的转化缓冲器条目的物理地址范围相比较,并且对具有在所述物理地址范围内的标签的每个缓存行执行所述缓存命令。
38.如权利要求37所述的分组处理元件,具有存储用于多个不同线程的指令的单个缓存。
39.如权利要求33所述的分组处理元件,包括存储用于多个不同线程的分组数据的单个数据缓存阵列和用于每个线程的个体标签阵列,或者存储用于个体线程的分组数据的多个不同缓存。
40.一种分组处理器,包括:
操作一个或多个线程的分组处理元件的阵列;以及
存储器系统,其包括用于存储分组的分组存储器和具有与所述分组存储器中的个体分组相对应的条目的分组句柄数据结构,所述分组和所述分组句柄数据结构在所述线程已完成对所述分组的处理后被维护在所述存储器系统中,并随后被用于后续的分组搜集和组装。
41.如权利要求40所述的分组处理器,包括分发器,其在所述线程先前处理的分组和关联的分组句柄数据结构保持在所述存储器系统以便进行所述搜集和组装操作的同时,向所述线程分派新的分组以便处理。
42.如权利要求41所述的分组处理器,其中,所述分发器根据所述分组所需的相对有限的到达处理时间和可变的主处理时间的类型,将所述分组分配给不同的线程。
43.如权利要求40所述的分组处理器,包括搜集机构,该搜集机构使用所述线程先前释放的分组的分组句柄数据结构来独立地搜集和组装释放的分组以便排队。
44.如权利要求40所述的分组处理器,包括排队系统,该排队系统包括再循环路径,该再循环路径将排队的分组再循环回所述存储器系统以便所述线程进行额外处理。
45.如权利要求44所述的分组处理器,其中,所述排队系统包括具有关联的根的队列,所述根中的某些被配置为经由所述再循环路径将分组发回所述存储器系统。
46.如权利要求40所述的分组处理器,包括根据所述线程发送的命令、线程标识符和地址值来自治地处理所述分组的协同处理器。
47.一种分组处理器,包括:
用于处理分组的一个或多个分组处理元件;
排队系统,用于在所述分组被所述分组处理元件处理之后存储所述分组;以及
分发器,其将接收自一个或多个外部端口和所述排队系统的分组分配给所述分组处理元件。
48.如权利要求47所述的分组处理器,其中,所述分发器将接收自所述外部端口的分组分配给提供到达处理操作的分组处理元件,并将接收自所述排队系统的分组分配给提供主处理的分组处理元件。
49.如权利要求48所述的分组处理器,包括再循环路径,该再循环路径在完成所述到达处理或所述主处理之后将所述排队系统中的分组再循环回所述分发器以便重新分配回所述分组处理元件。
50.如权利要求48所述的分组处理器,其中,所述到达处理在所述分组处理元件中具有相对有限的处理时间,所述主处理在所述分组处理中具有可变处理时间。
51.如权利要求47所述的分组处理器,其中,所述排队系统包括根和存储所述分组的关联的队列,所述根中的某些被配置为将所述关联队列中的分组发回所述分发器以便重新分配给所述分组处理元件的再循环根。
CN2006800016713A 2005-02-08 2006-01-09 多线程分组处理体系结构 Expired - Fee Related CN101512482B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/054,076 US7551617B2 (en) 2005-02-08 2005-02-08 Multi-threaded packet processing architecture with global packet memory, packet recirculation, and coprocessor
US11/054,076 2005-02-08
PCT/US2006/000602 WO2006086101A2 (en) 2005-02-08 2006-01-09 Multi-threaded packet processing architecture

Publications (2)

Publication Number Publication Date
CN101512482A true CN101512482A (zh) 2009-08-19
CN101512482B CN101512482B (zh) 2012-02-29

Family

ID=36781169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006800016713A Expired - Fee Related CN101512482B (zh) 2005-02-08 2006-01-09 多线程分组处理体系结构

Country Status (4)

Country Link
US (2) US7551617B2 (zh)
EP (1) EP1846836B1 (zh)
CN (1) CN101512482B (zh)
WO (1) WO2006086101A2 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102292705A (zh) * 2010-08-30 2011-12-21 华为技术有限公司 网络处理器的指令处理方法和网络处理器
CN103038718A (zh) * 2010-05-17 2013-04-10 美国邮政服务公司 本地化数据亲和性系统和混合方法
CN104321742A (zh) * 2012-03-23 2015-01-28 波利科雷软件股份有限公司 用于提供多核心编程平台的装置和方法
CN107729559A (zh) * 2017-11-08 2018-02-23 携程旅游网络技术(上海)有限公司 数据库读写异步访问的方法、系统、设备及存储介质
CN109697084A (zh) * 2017-10-22 2019-04-30 刘欣 一个用于时分复用流水线处理器的快速访问存储器结构
CN110716886A (zh) * 2019-09-29 2020-01-21 Tcl移动通信科技(宁波)有限公司 数据处理的方法、装置、存储介质以及终端
CN113177826A (zh) * 2021-05-20 2021-07-27 青岛海信智慧生活科技股份有限公司 一种批量配置商品与小区的方法及装置
CN113176911A (zh) * 2021-04-29 2021-07-27 上海阵量智能科技有限公司 一种配置方法、数据处理方法、芯片和电子设备
CN115185878A (zh) * 2022-05-24 2022-10-14 中科驭数(北京)科技有限公司 一种多核分组网络处理器架构及任务调度方法

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7626987B2 (en) * 2003-11-12 2009-12-01 Cisco Technology, Inc. Using ordered locking mechanisms to maintain sequences of items such as packets
US7362762B2 (en) * 2003-11-12 2008-04-22 Cisco Technology, Inc. Distributed packet processing with ordered locks to maintain requisite packet orderings
US20050223984A1 (en) * 2004-04-08 2005-10-13 Hee-Gyoun Lee Chemical vapor deposition (CVD) apparatus usable in the manufacture of superconducting conductors
US7551617B2 (en) 2005-02-08 2009-06-23 Cisco Technology, Inc. Multi-threaded packet processing architecture with global packet memory, packet recirculation, and coprocessor
US20060227788A1 (en) * 2005-03-29 2006-10-12 Avigdor Eldar Managing queues of packets
US7853951B2 (en) * 2005-07-25 2010-12-14 Intel Corporation Lock sequencing to reorder and grant lock requests from multiple program threads
US20070044103A1 (en) * 2005-07-25 2007-02-22 Mark Rosenbluth Inter-thread communication of lock protected data
US7739426B1 (en) 2005-10-31 2010-06-15 Cisco Technology, Inc. Descriptor transfer logic
US20070124728A1 (en) * 2005-11-28 2007-05-31 Mark Rosenbluth Passing work between threads
US8369219B2 (en) * 2006-09-19 2013-02-05 Cisco Technology, Inc. System and method for managing bandwidth
WO2008129900A1 (ja) * 2007-04-12 2008-10-30 Nec Corporation アレイプロセッサ型データ処理装置
US8761188B1 (en) * 2007-05-01 2014-06-24 Altera Corporation Multi-threaded software-programmable framework for high-performance scalable and modular datapath designs
US8059650B2 (en) * 2007-10-31 2011-11-15 Aruba Networks, Inc. Hardware based parallel processing cores with multiple threads and multiple pipeline stages
US9106592B1 (en) * 2008-05-18 2015-08-11 Western Digital Technologies, Inc. Controller and method for controlling a buffered data transfer device
US8139488B2 (en) * 2008-05-30 2012-03-20 Cisco Technology, Inc. Cooperative flow locks distributed among multiple components
US7990974B1 (en) 2008-09-29 2011-08-02 Sonicwall, Inc. Packet processing on a multi-core processor
US8060729B1 (en) * 2008-10-03 2011-11-15 Altera Corporation Software based data flows addressing hardware block based processing requirements
US9461930B2 (en) 2009-04-27 2016-10-04 Intel Corporation Modifying data streams without reordering in a multi-thread, multi-flow network processor
US9444757B2 (en) 2009-04-27 2016-09-13 Intel Corporation Dynamic configuration of processing modules in a network communications processor architecture
US8868889B2 (en) * 2010-03-12 2014-10-21 Lsi Corporation Instruction breakpoints in a multi-core, multi-thread network communications processor architecture
US8707320B2 (en) 2010-02-25 2014-04-22 Microsoft Corporation Dynamic partitioning of data by occasionally doubling data chunk size for data-parallel applications
CN101826003A (zh) * 2010-04-16 2010-09-08 中兴通讯股份有限公司 多线程处理方法和装置
WO2012092268A1 (en) * 2010-12-29 2012-07-05 Citrix Systems, Inc. Systems and methods for scalable n-core statistics aggregation
US8897316B2 (en) 2010-12-31 2014-11-25 Telefonaktiebolaget L M Ericsson (Publ) On-chip packet cut-through
US20120254552A1 (en) * 2011-03-30 2012-10-04 Arm Limited Memory access remapping
KR101590288B1 (ko) * 2012-01-31 2016-01-29 지티이 (유에스에이) 인크. 전송 독립 방식으로 체감 품질을 관리하기 위한 방법 및 시스템
US8942258B2 (en) * 2012-09-14 2015-01-27 International Business Machines Corporation Segmentation and reassembly of network packets for switched fabric networks
US8923299B2 (en) * 2012-09-14 2014-12-30 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Segmentation and reassembly of network packets
US10037228B2 (en) 2012-10-25 2018-07-31 Nvidia Corporation Efficient memory virtualization in multi-threaded processing units
US10310973B2 (en) 2012-10-25 2019-06-04 Nvidia Corporation Efficient memory virtualization in multi-threaded processing units
US10169091B2 (en) * 2012-10-25 2019-01-01 Nvidia Corporation Efficient memory virtualization in multi-threaded processing units
US9256548B2 (en) 2012-11-29 2016-02-09 Cisco Technology, Inc. Rule-based virtual address translation for accessing data
US9471537B2 (en) 2013-03-14 2016-10-18 Altera Corporation Hybrid programmable many-core device with on-chip interconnect
US9471388B2 (en) 2013-03-14 2016-10-18 Altera Corporation Mapping network applications to a hybrid programmable many-core device
US9465618B2 (en) * 2014-01-08 2016-10-11 Oracle International Corporation Methods and systems for optimally selecting an assist unit
US11301256B2 (en) * 2014-08-22 2022-04-12 Advanced Micro Devices, Inc. System and method for page-conscious GPU instruction
US9608926B2 (en) 2014-08-29 2017-03-28 Cisco Technology, Inc. Flexible recirculation bandwidth management
US10114638B2 (en) 2014-12-15 2018-10-30 Cisco Technology, Inc. Command message generation and execution using a machine code-instruction
KR102609473B1 (ko) * 2016-06-17 2023-12-04 에스케이하이닉스 주식회사 데이터 저장 장치 및 그것의 동작 방법
US10834725B2 (en) 2016-07-26 2020-11-10 At&T Intellectual Property I, L.P. Radio resource pooling associated with communication devices

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4442484A (en) * 1980-10-14 1984-04-10 Intel Corporation Microprocessor memory management and protection mechanism
US4494230A (en) 1982-06-25 1985-01-15 At&T Bell Laboratories Fast packet switching system
US4491945A (en) 1982-06-25 1985-01-01 At&T Bell Laboratories Fast packet switch
US4630260A (en) 1985-06-27 1986-12-16 At&T Bell Laboratories Self-routing multipath packet switching network with sequential delivery of packets
US4734907A (en) 1985-09-06 1988-03-29 Washington University Broadcast packet switching network
JPH0771111B2 (ja) 1985-09-13 1995-07-31 日本電気株式会社 パケツト交換処理装置
JPH0833857B2 (ja) 1987-02-18 1996-03-29 株式会社日立製作所 システム間デ−タベ−ス共用システムジヤ−ナルマ−ジ方式
US4866701A (en) * 1988-09-02 1989-09-12 Bell Communications Research, Inc. Packet switch with dynamic allocation of inputs
US4893304A (en) 1988-09-02 1990-01-09 Bell Communications Research, Inc. Broadband packet switch with combined queuing
IT1228728B (it) * 1989-03-15 1991-07-03 Bull Hn Information Syst Sistema multiprocessore con replicazione di dati globali e due livelli di unita' di traduzione indirizzi.
DE68920748T2 (de) 1989-08-09 1995-06-29 Alcatel Nv Sequentielle rückordnung für einen vermittlungsknoten.
DE3942977A1 (de) 1989-12-23 1991-06-27 Standard Elektrik Lorenz Ag Verfahren zum wiederherstellen der richtigen zellfolge, insbesondere in einer atm-vermittlungsstelle, sowie ausgangseinheit hierfuer
US5253251A (en) 1991-01-08 1993-10-12 Nec Corporation Switching system with time-stamped packet distribution input stage and packet sequencing output stage
US5229991A (en) 1991-01-30 1993-07-20 Washington University Packet switch with broadcasting capability for atm networks
JPH0827755B2 (ja) 1991-02-15 1996-03-21 インターナショナル・ビジネス・マシーンズ・コーポレイション データの単位を高速度でアクセスする方法
US5260935A (en) 1991-03-01 1993-11-09 Washington University Data packet resequencer for a high speed data switch
US5179551A (en) 1991-04-08 1993-01-12 Washington University Non-blocking multi-cast switching system
JP2533266B2 (ja) 1991-06-14 1996-09-11 インターナショナル・ビジネス・マシーンズ・コーポレイション 共用デ―タシステムにおけるデ―タ資源のロッキング方法及びシステム間のデ―タロック管理方法
US5430850A (en) * 1991-07-22 1995-07-04 Massachusetts Institute Of Technology Data processing system with synchronization coprocessor for multiple threads
US5179556A (en) 1991-08-02 1993-01-12 Washington University Bandwidth management and congestion control scheme for multicast ATM networks
JP2974526B2 (ja) 1992-12-18 1999-11-10 富士通株式会社 データ転送処理方法及びデータ転送処理装置
US5402415A (en) 1993-04-22 1995-03-28 Washington University Multicast virtual circuit switch using cell recycling
US5450411A (en) 1994-09-02 1995-09-12 At&T Global Information Solutions Company Network interface for multiplexing and demultiplexing isochronous and bursty data streams in ATM networks
US5699500A (en) 1995-06-01 1997-12-16 Ncr Corporation Reliable datagram service provider for fast messaging in a clustered environment
US5682537A (en) 1995-08-31 1997-10-28 Unisys Corporation Object lock management system with improved local lock management and global deadlock detection in a parallel data processing system
US5845147A (en) 1996-03-19 1998-12-01 Emc Corporation Single lock command for an I/O storage system that performs both locking and I/O data operation
US5845129A (en) * 1996-03-22 1998-12-01 Philips Electronics North America Corporation Protection domains in a single address space
US5842040A (en) 1996-06-18 1998-11-24 Storage Technology Corporation Policy caching method and apparatus for use in a communication device based on contents of one data unit in a subset of related data units
US5987506A (en) * 1996-11-22 1999-11-16 Mangosoft Corporation Remote access and geographically distributed computers in a globally addressable storage environment
US5905725A (en) 1996-12-16 1999-05-18 Juniper Networks High speed switching device
US6128666A (en) 1997-06-30 2000-10-03 Sun Microsystems, Inc. Distributed VLAN mechanism for packet field replacement in a multi-layered switched network element using a control field/signal for indicating modification of a packet with a database search engine
US5949780A (en) 1997-07-11 1999-09-07 Network Machines, Inc. Integration of intelligence with communications in a switching node
US6170025B1 (en) 1997-08-29 2001-01-02 Intel Corporation Distributed computer system supporting remote interrupts and lock mechanism
US6032190A (en) 1997-10-03 2000-02-29 Ascend Communications, Inc. System and method for processing data packets
CA2222389A1 (en) 1997-11-27 1999-05-27 Ibm Canada Limited-Ibm Canada Limitee A mechanism for managing the locking and unlocking of objects in java
US6161144A (en) 1998-01-23 2000-12-12 Alcatel Internetworking (Pe), Inc. Network switching device with concurrent key lookups
US6253273B1 (en) 1998-02-06 2001-06-26 Emc Corporation Lock mechanism
US7100020B1 (en) * 1998-05-08 2006-08-29 Freescale Semiconductor, Inc. Digital communications processor
US6163856A (en) 1998-05-29 2000-12-19 Sun Microsystems, Inc. Method and apparatus for file system disaster recovery
US6601138B2 (en) * 1998-06-05 2003-07-29 International Business Machines Corporation Apparatus system and method for N-way RAID controller having improved performance and fault tolerance
US6405274B1 (en) 1998-12-30 2002-06-11 Oracle Corporation Anticipatory lock mode conversions in a lock management system
US6563790B1 (en) 1999-05-21 2003-05-13 Advanced Micro Devices, Inc. Apparatus and method for modifying a limit of a retry counter in a network switch port in response to exerting backpressure
US6473849B1 (en) 1999-09-17 2002-10-29 Advanced Micro Devices, Inc. Implementing locks in a distributed processing system
JP3643507B2 (ja) 1999-09-20 2005-04-27 株式会社東芝 パケット処理装置及びパケット処理方法
US6529983B1 (en) 1999-11-03 2003-03-04 Cisco Technology, Inc. Group and virtual locking mechanism for inter processor synchronization
US6661794B1 (en) * 1999-12-29 2003-12-09 Intel Corporation Method and apparatus for gigabit packet assignment for multithreaded packet processing
WO2001067237A2 (en) 2000-03-03 2001-09-13 Tenor Networks, Inc. High-speed data processing using internal processor memory space
US6553005B1 (en) 2000-07-26 2003-04-22 Pluris, Inc. Method and apparatus for load apportionment among physical interfaces in data routers
WO2002039667A2 (en) 2000-11-07 2002-05-16 Fast-Chip, Inc. Switch-based network processor
US6920447B2 (en) 2001-02-15 2005-07-19 Microsoft Corporation Concurrent data recall in a hierarchical storage environment using plural queues
US6553464B1 (en) 2001-03-04 2003-04-22 Emc Corporation Obtaining data from a remote storage device
US7210022B2 (en) * 2001-05-15 2007-04-24 Cloudshield Technologies, Inc. Apparatus and method for interconnecting a processor to co-processors using a shared memory as the communication interface
US7107319B2 (en) 2001-05-31 2006-09-12 Oracle Corporation Method and apparatus for reducing latency and message traffic during data and lock transfer in a multi-node system
US7120631B1 (en) 2001-12-21 2006-10-10 Emc Corporation File server system providing direct data sharing between clients with a server acting as an arbiter and coordinator
US7313557B1 (en) 2002-03-15 2007-12-25 Network Appliance, Inc. Multi-protocol lock manager
US7093027B1 (en) 2002-07-23 2006-08-15 Atrica Israel Ltd. Fast connection protection in a virtual local area network based stack environment
US20040039815A1 (en) 2002-08-20 2004-02-26 Compaq Information Technologies Group, L.P. Dynamic provisioning system for a network of computers
US7404015B2 (en) 2002-08-24 2008-07-22 Cisco Technology, Inc. Methods and apparatus for processing packets including accessing one or more resources shared among processing engines
US7304999B2 (en) * 2002-08-24 2007-12-04 Cisco Technology Inc. Methods and apparatus for processing packets including distributing packets across multiple packet processing engines and gathering the processed packets from the processing engines
AU2003252054B2 (en) 2002-08-24 2008-09-25 Cisco Technology, Inc. Packet processing engine
US7360219B2 (en) 2002-12-13 2008-04-15 Hewlett-Packard Development Company, L.P. Systems and methods for facilitating fair and efficient scheduling of processes among multiple resources in a computer system
US6990560B2 (en) 2003-01-16 2006-01-24 International Business Machines Corporation Task synchronization mechanism and method
US7398515B2 (en) 2003-07-16 2008-07-08 International Business Machines Corporation Buckets of commands in a multiprocessor-based verification environment
KR100591755B1 (ko) * 2003-07-22 2006-06-22 삼성전자주식회사 복수의 스레드를 동시에 처리하는 장치 및 방법
US7362762B2 (en) 2003-11-12 2008-04-22 Cisco Technology, Inc. Distributed packet processing with ordered locks to maintain requisite packet orderings
US7626987B2 (en) 2003-11-12 2009-12-01 Cisco Technology, Inc. Using ordered locking mechanisms to maintain sequences of items such as packets
US7558864B2 (en) 2004-01-27 2009-07-07 International Business Machines Corporation Method, system and product for identifying, reserving, and logically provisioning resources in provisioning data processing systems
US7627573B2 (en) 2004-03-27 2009-12-01 Cisco Technology, Inc. Bypassing native storage operations by communicating protected data within locking messages using a lock manager independent of the storage mechanism
US7551617B2 (en) 2005-02-08 2009-06-23 Cisco Technology, Inc. Multi-threaded packet processing architecture with global packet memory, packet recirculation, and coprocessor
US7606250B2 (en) 2005-04-05 2009-10-20 Cisco Technology, Inc. Assigning resources to items such as processing contexts for processing packets
US20070008989A1 (en) * 2005-06-30 2007-01-11 Intel Corporation Packet processing
US20070014240A1 (en) 2005-07-12 2007-01-18 Alok Kumar Using locks to coordinate processing of packets in a flow
US7853951B2 (en) 2005-07-25 2010-12-14 Intel Corporation Lock sequencing to reorder and grant lock requests from multiple program threads
US8065499B2 (en) 2006-02-22 2011-11-22 Oracle America, Inc. Methods and apparatus to implement parallel transactions

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10509807B2 (en) 2010-05-17 2019-12-17 United States Postal Service Localized data affinity system and hybrid method
CN103038718A (zh) * 2010-05-17 2013-04-10 美国邮政服务公司 本地化数据亲和性系统和混合方法
CN103038718B (zh) * 2010-05-17 2016-06-22 美国邮政服务公司 本地化数据亲和性系统和混合方法
US11113316B2 (en) 2010-05-17 2021-09-07 United States Postal Service Localized data affinity system and hybrid method
WO2012027878A1 (zh) * 2010-08-30 2012-03-08 华为技术有限公司 网络处理器的指令处理方法和网络处理器
CN102292705B (zh) * 2010-08-30 2013-12-18 华为技术有限公司 网络处理器的指令处理方法和网络处理器
CN102292705A (zh) * 2010-08-30 2011-12-21 华为技术有限公司 网络处理器的指令处理方法和网络处理器
CN104321742A (zh) * 2012-03-23 2015-01-28 波利科雷软件股份有限公司 用于提供多核心编程平台的装置和方法
CN104321742B (zh) * 2012-03-23 2017-08-29 波利科雷软件股份有限公司 用于提供多核心编程平台的装置和方法
CN109697084A (zh) * 2017-10-22 2019-04-30 刘欣 一个用于时分复用流水线处理器的快速访问存储器结构
CN107729559B (zh) * 2017-11-08 2020-06-23 携程旅游网络技术(上海)有限公司 数据库读写异步访问的方法、系统、设备及存储介质
CN107729559A (zh) * 2017-11-08 2018-02-23 携程旅游网络技术(上海)有限公司 数据库读写异步访问的方法、系统、设备及存储介质
CN110716886A (zh) * 2019-09-29 2020-01-21 Tcl移动通信科技(宁波)有限公司 数据处理的方法、装置、存储介质以及终端
CN113176911A (zh) * 2021-04-29 2021-07-27 上海阵量智能科技有限公司 一种配置方法、数据处理方法、芯片和电子设备
CN113177826A (zh) * 2021-05-20 2021-07-27 青岛海信智慧生活科技股份有限公司 一种批量配置商品与小区的方法及装置
CN115185878A (zh) * 2022-05-24 2022-10-14 中科驭数(北京)科技有限公司 一种多核分组网络处理器架构及任务调度方法

Also Published As

Publication number Publication date
WO2006086101A3 (en) 2009-04-16
US20060179156A1 (en) 2006-08-10
EP1846836A2 (en) 2007-10-24
US7664897B2 (en) 2010-02-16
EP1846836B1 (en) 2018-12-19
US7551617B2 (en) 2009-06-23
US20060179204A1 (en) 2006-08-10
EP1846836A4 (en) 2009-12-30
WO2006086101A2 (en) 2006-08-17
CN101512482B (zh) 2012-02-29

Similar Documents

Publication Publication Date Title
CN101512482B (zh) 多线程分组处理体系结构
US7676646B2 (en) Packet processor with wide register set architecture
CN106104501B (zh) 用于在多节点系统中的存储器分配的方法和装置
CN100392602C (zh) 用于在网络处理器中动态排序的系统和方法
CN100351798C (zh) 在多线程网络处理器中线程信令的分组处理方法和系统
CN107710237A (zh) 服务器上深度神经网络划分
CN104050041B (zh) 用于在处理器中调度规则匹配的调度方法和装置
US20050071843A1 (en) Topology aware scheduling for a multiprocessor system
CN1342940A (zh) 到一个共享的协处理器资源的多个逻辑接口
WO2015084767A1 (en) System and method for query differentiation in distributed relational database management system based on software-defined network
Amalarethinam et al. An Overview of the scheduling policies and algorithms in Grid Computing
CN106126323A (zh) 基于云平台的实时任务调度方法
CN110431806A (zh) 分布式资源管理中低时延节点本地调度的系统和方法
CN103649932B (zh) 资源的分散分配以及用于支持由多个引擎执行指令序列的互连结构
CN106095582A (zh) 云平台的任务执行方法
CN1829200A (zh) 用于在网络处理器中记帐的装置和方法
Jonathan et al. Awan: Locality-aware resource manager for geo-distributed data-intensive applications
Ghazali et al. A classification of Hadoop job schedulers based on performance optimization approaches
CN107172149A (zh) 大数据即时调度方法
CN105872109A (zh) 云平台负载运行方法
CN100499564C (zh) 分组处理引擎
CN1781079A (zh) 利用门管理器维护实体顺序
Xu et al. Application-aware NoC management in GPUs multitasking
CN103649931B (zh) 用于支持由多个引擎执行指令序列的互连结构
CN112416538A (zh) 一种分布式资源管理框架的多层次架构和管理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120229

Termination date: 20210109

CF01 Termination of patent right due to non-payment of annual fee