Abstract:
An apparatus and a method for detecting a network attack through traffic pattern analysis are provided to efficiently operate a network by actively detecting aggression or an abnormal situation on the network and preventing a network attack previously or coping with an attack act early enough. An apparatus for detecting a network attack through traffic pattern analysis comprises a pattern DB(40), a packet inspection part(10), a packet extraction part(20), a traffic analysis part(30), a traffic countermeasure part(50), and a traffic monitoring part(60). The pattern DB(40) stores abnormal traffic patterns, based on external attacks, and normal traffic patterns. The packet inspection part(10) checks an abnormal symptom of inputted packet flows. The packet extraction part(20) collects packet flows showing an abnormal symptom, and extracts a traffic pattern for the packet flows. The traffic analysis part(30) compares the extracted traffic pattern with traffic patterns stored in the pattern DB(40), and analyzes whether the extracted traffic pattern is by an external attack. The traffic countermeasure part(50), if the extracted traffic pattern is by an external attack, determines a countermeasure for the traffic. In case the extracted traffic pattern is not by an external attack, the traffic monitoring part(60) monitors traffic patterns for a preset time, extracts traffic patterns after the preset time, and transfers them to the traffic analysis part(30).
Abstract:
1. 청구범위에 기재된 발명이 속한 기술분야 본 발명은 망 자원 관리와 연동된 호 수락제어 장치 및 그 방법에 관한 것임. 2. 발명이 해결하려고 하는 기술적 과제 본 발명은 중앙집중식 망 자원 데이터베이스를 두어 망 자원 관리기로부터 주기적으로 망 자원 변동을 관리하도록 하고, 호 처리기에서 번호 번역뿐만 아니라 번역된 결과에 대한 목적지까지의 망 자원 정도에 따른 호 수락 제어를 시킴으로써, 망의 부하를 줄여주고 기존의 멀티미디어 스트림 보호, 신규 호 스트림의 안정적 유지, 및 사용량에 따른 과금 처리가 가능하도록 하기 위한, 망 자원 관리와 연동된 호 수락제어 장치 및 그 방법을 제공하는데 그 목적이 있음. 3. 발명의 해결방법의 요지 본 발명은, 망 자원 관리와 연동된 호 수락제어 장치에 있어서, 사용자의 호 요구 입력신호를 해석하여 번호를 번역하기 위한 번호 번역수단; 상기 번역된 번호를 기반으로 해당 목적지 주소로 번호 라우팅을 하기 위한 번호 라우팅수단; 망 자원 관리 데이터베이스(DB)를 관리하여, 상기 목적지 주소 기반 망 자원의 여유를 확인하기 위한 DB 관리수단; 상기 DB 관리수단에 의거하여, 상기 번역된 결과에 대한 목적지까지의 망 자원 정도에 따라 호 수락 제어하기 위한 호 수락 제어수단; 및 정상적인 호 로그 및 과금 정보 처리, 호 오류 로그 처리를 위한 수단을 포함한 다. 4. 발명의 중요한 용도 본 발명은 프리미엄 멀티미디어 서비스 등에 이용됨. 호 수락 제어(CAC), 망 자원 관리, 호 처리기, 번호 번역, 자원, 타이머
Abstract:
고속의 패킷 포워딩이 가능하게 하는 주소 번역 프로토콜 테이블 관리방법 및 관리장치가 개시된다. 상기 주소 번역 프로토콜 테이블 관리방법 및 관리장치는, 주소 번역 프로토콜 기능의 짧은 에이징 시간을 충분히 크게 설정하고, 상기 에이징 시간을 짧은 주기의 에이징 시간으로 분할하며, 분할된 에이징 시간이 경과하기 전에 엔트리 정보를 요구함으로써, 엔트리를 갱신하도록 한다.
Abstract:
본 발명은 라우터의 장애 정보 처리 방법에 관한 것으로 특히, 라우터에 내장된 프로세서의 장애(오류) 발생시에 그 장애 정보 처리를 다중화시켜 행하는 방법에 관한 것이다. 본 발명이 개시하는 라우터의 장애 정보 처리 방법은 라우터에 메인 프로세서, 라인카드 외에 별도의 상용 목적 프로세서를 구비시켜, 메인 프로세서 및 라인카드와 IPC(InterProcess Communication) 메시지 교환을 통하여 장애 정보를 처리하게 하며, (a)라우터의 메인 프로세서가 상용 목적 프로세서의 스탠바이(stand-by) 상태를 인지하는 단계; (b)메인 프로세서가 라인카드에 상용 목적 프로세의 스탠바이(stand-by) 상태를 통지하는 단계; 및 (c)라인카드가 통지에 응답하여 상기 IPC 메시지를 상용 목적 프로세서로 전달하는 단계를 포함하여 본 발명의 기술적 과제를 달성한다.
Abstract:
Disclosed is an inter-vehicle communicating method using navigation road map information which enables accurate information to be delivered swiftly via a broadcasting technique referring to the road map information at positions such as intersections when knowing on which road a vehicle is located based on directional information of the vehicle in a vehicle navigation system combined with a global positioning system (GPS). The method for the inter-vehicle communications is as follows. A navigation unit keeps track of a vehicle to determine a position of the vehicle on a road. A message receiving unit receives a message from other vehicles within a communications range. A road coordinate extracting unit analyzes the received message to extract road coordinate information from the message. A determining unit determines whether the message is to be relayed or not depending on whether the extracted road coordinate information and current road coordinate information of the vehicle belong to the same road segment. When it is determined, by message relay unit, that the received message is to be relayed, a message relay unit relays the received message to other vehicles on the same road segment.
Abstract:
PURPOSE: A method for compressing an image using a dual object detection and motion trajectory information in steps of encoding and decoding the image is provided to extract image information, motion information, and transformation information for an object from an encoding process, and to reconfigure a prediction frame using the motion information and the transformation information for the object extracted on the basis of a reference frame in a decoding process, thereby raising a compression rate. CONSTITUTION: A method for compressing an image using a dual object detection and motion trajectory information in a step of encoding the image includes; a step of extracting an object with separating the object and a background from a reference frame in the image; and a step of extracting the object, the initial location value and the size of a block adjacent to the object, and the motion trajectory information of the object. [Reference numerals] (AA) Start decoding; (BB) End; (S210) Check header information; (S214) Decode an I frame; (S216) Search a reference frame; (S218) Generate background information about an expected frame based on a reference frame; (S220) Check information about a starting location value (i, j) and a size (m, n) of a block adjacent to an object in the reference frame; (S222) Extract a relevant object by using information about the location and size of a relevant block; (S224) Generate an expected frame by using header information about the extracted object in the reference frame and applying motion trajectory information; (S226) Is there form deformation information about an object in a header?; (S228) Correct the expected frame by using transform information about an object; (S230) Is there correction information about a block adjacent to an object in a header?; (S232) Reconstruct block information about an error of the background around an extracted object in a reference frame of a header information reference; (S234) Perform the reconstruction for each object?; (S236) Final frame?
Abstract:
PURPOSE: A motion effect data generating device and a method thereof are provided to effectively produce four-dimensional realistic media offering impressive motion effects to a user by generating optimal motion effect data. CONSTITUTION: A motion effect data generating device divides motion data into multiple regions according to the change of the motion data and determines the motion effect type of the motion data of each region through the comparison of the motion data of each region and a template stored in a motion effect type database(S20,S30). The motion effect data generating device extracts a motion effect pattern corresponding to the motion data of each region from a motion effect database according to the determined type and generates final motion effect data(S50,S60). [Reference numerals] (AA) Start; (BB) End; (S10) Receive input of motion data; (S20) Divide and analyze motion data by sections; (S30) Determine type of motion effect; (S40) Convert motion data by type of motion effect; (S50) Extract optimum motion data pattern; (S60) Generate motion effect data
Abstract:
PURPOSE: A sensory effect detection device and a method thereof are provided to easily and quickly produce 4D sensory effect media suitable for media contents by detecting motion effect through combination of detection result of a viewpoint motion detection unit, an object location detection unit and an object rotation detection unit, synchronizing the detected motion effect and combining the synchronized motion effect to media. CONSTITUTION: An object motion detection unit(210) detects motion effect of a specific object within an image. A viewpoint motion detection unit(220) detects viewpoint motion effect generated according to movement and angle variation of a camera. A motion parameter detection unit(230) detects the final motion effect using the detected object motion effect and the detected viewpoint motion effect. [Reference numerals] (211) Position detection unit; (211A) Object modeling unit; (211B) Object position detection unit; (212) Rotation detection unit; (212A) Object rotation modeling unit; (212B) Object rotation detection unit; (220) Viewpoint motion detection unit; (221) Viewpoint modeling unit; (222) Viewpoint detection unit; (230) Motion parameter detection un