Abstract:
PURPOSE: A line interface module in a router and a routing system having the same are provided to integrate many line interfaces into a single line interface module and to execute fault management, inter-processor connection, switch interfacing, etc., through the line interface module. CONSTITUTION: A line interface module(10) consists of a sub switching card(13) and a backplane(14). The sub switching card(13) comprises line cards(11,12), a sub switch(131), and switch input-output buffers(133,134). The backplane(14) connects between the line cards(11,12) and the sub switching card(13). Each line card(11,12) comprises physical link ports(111,114,121,124), physical layer interface parts(112,15,122,125), and network processors(113,116,123,126). The network processors(113,116,123,126) process the packet switching and forwarding function of an OSI(Open System Interconnection) 3/4+ layer. The sub switch(131) executes sub switching to target data channels for the data supplied from the line cards(11,12) and the switch input-output buffers(133,134). The switch input-output buffers(133,134) buffer the data inputted/outputted between the switch of a routing system and the sub switch(131).
Abstract:
패킷을 전송하는 광 전달망에서, 노드간에 종단간 연결을 제공하는 적어도 하나의 터널을 형성하고, 상기 터널을 적어도 하나의 광 파장으로 구성한다. 그리고 각 광파장에 대하여 복수의 광 채널을 할당하며, 상기 터널에 대하여 하나의 광 채널을 보호 절체용 광채널로 설정한다. 그리고 패킷이 전송되는 광채널에 장애가 발생하면 해당 터널에 대하여 설정된 보호 절체용 광 채널을 통하여 패킷을 전송한다.
Abstract:
Disclosed are a data processing device for converting a path of massive data at high speed and a method for the same. The data processing method according to an embodiment of the present invention groups data transmission tunnels in a port or card unit and manages the tunnel groups in a data transmission table by using a tunnel group message. Therefore, the data processing method can continuously provide a data transmission service without interruption by rapidly converting massive tunnel paths included in a link, a port, or a card into an alternative path when the physical or virtual link, the port, or the card malfunction.
Abstract:
본 발명의 일실시예에 따른 패킷/TDM 겸용 스위치는 이더넷 정합 수단 또는 TDM(Time Division Multiplexing) 정합 수단으로부터 수신한 슬롯 인식 정보에 기초하여 수신한 신호의 종류를 구분하고, 상기 수신한 신호의 종류에 따라 상기 이더넷 정합 수단 또는 상기 TDM 정합 수단 각각에 대응하는 전용 스위치를 이용하여 상기 수신한 신호를 처리한다.
Abstract:
복수의 통신 노드를 포함하는 통합 노드 시스템의 제1 통신 노드의 통신 방법은 상기 복수의 통신 노드 가운데 적어도 하나의 제2 통신 노드로부터 데이터를 수신하고, 상기 데이터를 이용하여 상기 복수의 통신 노드와 상기 통합 노드 시스템 외부의 통신 장치 사이의 데이터 전달 경로 정보를 포함하는 공유 제어 정보를 생성하며, 상기 공유 제어 정보를 상기 적어도 하나의 제2 통신 노드로 전송하고, 상기 공유 제어 정보에 기초하여 상기 복수의 통신 노드 중 적어도 일부 통신 노드를 통하여 상기 통합 노드 시스템 외부의 통신 장치와 통신한다. 노드, 공유 제어 정보
Abstract:
PURPOSE: A sensor node operation method is provided to prevent routing information from being propagated to an entire sensor field. CONSTITUTION: A plurality of clusters are formed by grouping neighborly-located sensor nodes(S100). A sensor node, which is the nearest to the center region of a cluster and has remaining energy, is selected as the head node of each cluster(S200). When the head node is successfully selected, all data packets are forwarded through the head node(S300). When a head node reselection period comes around after predetermined time, a new head node is selected after updating the location information of each sensor node to the most up-to-date information(S400).
Abstract:
PURPOSE: A protective switching method in an optical transmitting network is provided to perform protective switching function per an optical channel or an optical wavelength configuring a tunnel. CONSTITUTION: Each tunnel includes each optical wavelength. A corresponding optical wavelength includes a plurality of optical channel(S110). One among a plurality of optical channel is sets to an optical channel for protective switching(S120).
Abstract:
본 발명은 멀티 프로세싱 유닛에 대해 각자 개별적으로 운용 가능하며, 메모리 어드레스 영역을 변경 가능한 멀티 프로세싱 유닛에 대한 메모리 매핑장치에 대한 것이다. 이를 위해 본 발명은 복수의 프로세싱 유닛과 복수의 메모리 사이를 정합하는 적어도 하나의 메모리 정합부, 각 메모리에 대한 억세스 제어, 및 중재를 수행하는 메모리 컨트롤러, 각 프로세싱 유닛에 대한 윈도우 맵을 구비하며, 윈도우 맵을 참조하여 각 프로세싱 유닛에 각 메모리를 대응시키고, 대응된 메모리의 어드레스 영역의 일 영역을 할당하는 메모리 매핑부, 및 각 프로세싱 유닛 중 어느 하나의 메모리 사용 요구에 응답하여 메모리 사용 요구가 발생한 프로세싱 유닛에 대해 윈도우 맵을 가변하는 윈도우 맵 가변부를 구비한다. 멀티 프로세싱 유닛, 윈도우 맵, 메모리, 어드레스 영역
Abstract:
PURPOSE: A sensor node operation method is provided to prevent routing information from being propagated to an entire sensor field. CONSTITUTION: A plurality of clusters are formed by grouping neighborly-located sensor nodes(S100). A sensor node, which is the nearest to the center region of a cluster and has remaining energy, is selected as the head node of each cluster(S200). When the head node is successfully selected, all data packets are forwarded through the head node(S300). When a head node reselection period comes around after predetermined time, a new head node is selected after updating the location information of each sensor node to the most up-to-date information(S400).
Abstract:
PURPOSE: A memory mapping method for a multi processing unit and a device thereof are provided to minimize time delay, collision and bottleneck phenomena generated when each processing unit accesses a memory. CONSTITUTION: At least one memory matching unit(114,119,130) matches a plurality of processing units(102,104,106) with a plurality of memories. Memory controllers(107,108,109,126,127,128,129) perform access control and arbitration for each memory. The memory mapping unit maps one area of the entire address area of a corresponding memory. A window map varying unit varies a window map about a processing unit in which a memory use request is generated.