Abstract:
센서 노드에서 수행되는 데이터 브로드캐스팅 방법이 개시된다. 센서 노드에서 수행되는 데이터 브로드캐스팅 방법은 이웃 노드들로 데이터를 브로드캐스팅하는 단계; 및 브로드캐스팅 후 일정 시간 이내에 이웃 노드로부터 브로드캐스팅된 데이터를 수신하면 해당 이동 노드의 긍정 수신 응답으로 인식하여 이웃 노드들의 수신 응답을 나타내는 비트맵을 갱신하는 단계;를 포함한다. 이에 의해 피드백 충돌을 방지할 수 있다.
Abstract:
PURPOSE: A multi-antenna matching operation and DMA based data transmitting method and a sink node therefor in sensor network performing an intermediating function about a plurality of transcievers connected within a sink node to SPI bus are provided to remove bottleneck when transmitting data by transmitting the sink node based on DMA. CONSTITUTION: A sink node implements data transmission through a DMA channel of a micro controller(300). A DMA controller(307) implements DMA control function for transmitting data about plural antenna structures at high speed. An SPI bus controller(308) controls SPI signal about reception data of plural wireless transceiving elements. A transceiver(309) is connected through the SPI bus control and SPI serial bus.
Abstract:
1. 청구범위에 기재된 발명이 속한 기술분야 본 발명은 고속의 대량 데이터를 수신하기 위한 데이터 수신 모듈의 처리 방법에 관한 것임. 2. 발명이 해결하려고 하는 기술적 과제 본 발명은 다중 쓰레드(multi-thread) 또는 다중 타스크(multi-task) 기술을 도입하여 고속의 대량 데이터를 수신하기 위한, 데이터 수신 모듈의 처리 방법을 제공하는데 그 목적이 있음. 3. 발명의 해결방법의 요지 본 발명은, 데이터 수신 모듈의 처리 방법에 있어서, 메인 쓰레드가 다수개의 메시지 수신 모듈 쓰레드를 생성하고, 상기 생성된 메시지 수신 모듈 쓰레드별로 쓰레드 로드 밸런싱 정보 테이블을 생성하는 단계; 상기 메인 쓰레드가 제어 데이터 기록 시그널을 수신하고, 상기 수신한 제어 데이터 기록 시그널에 따라 상기 쓰레드 로드 밸런싱 정보 테이블에서 해당하는 데이터 수신 처리 쓰레드를 선택하여 시그널을 전송하는 시그널 전송 단계; 상기 시그널을 수신한 데이터 수신 처리 쓰레드가 제어 데이터를 읽어 분석하여 해당하는 트래픽 데이터를 읽는 단계; 및 상기 데이터 수신 처리 쓰레드가 상기 쓰레드 로드 밸런싱 정보 테이블을 갱신하는 갱신 단계를 포함함. 4. 발명의 중요한 용도 본 발명은 단말의 고속의 대량 데이터 수신 기술 등에 이용됨. 고속 대량 데이터, 메인 쓰레드, 데이터 수신 처리 쓰레드, 데이터 수신 모듈
Abstract:
본 발명은 3GE TE에서 애플리케이션 의존성 제거를 위한 디바이스 집성화 장치 및 방법에 관한 것이다. 본 발명은 3GPP 기반의 이종 네트워크에 대한 선택 연결이 가능한 단말 형상에 관한 것이다. 단말이 여러 네트워크 인터페이스 카드(NIC)와 함께 구성될 때, 상위 애플리케이션 프로그램과 개별 물리적 특성에 의존하는 물리적 디바이스 간의 독립성을 보장하기 위한 방법에 특징이 있다. 본 발명은 실제 물리 디바이스 드라이버 위에 추가로 논리 디바이스를 정의함으로서 실현된다. 본 발명은 단말에서 디바이스 드라이버에 대한 애플리케이션 프로그램의 의존성을 제외하고, 또한 커널 모드에서 동일 계열 디바이스들을 그룹화하여 디바이스의 등록/해제 구조 및 상태 관리를 단순화할 수 있다. 그 결과 사용자 모드와 커널 모드 간의 잦은 연계를 최소화할 수 있는 효과를 기대할 수 있다. 3GPP 단말, 집성화 디바이스, 논리 디바이스, 물리 디바이스
Abstract:
본 발명은 인터넷 상에 각기 상이한 위치에 상이한 형태로 분산 저장된 정보 자원으로부터 원하는 정보를 획득하는 통합 뷰를 생성하기 위하여 데이터베이스 스키마를 생성하는 방법 및 정보 통합 시스템에 관한 것이다. 본 발명은 명세언어로 기술된 정보 데이터베이스의 구조 및 내용을 해석하여, 의미적으로 대응되는 스키마를 생성하는 규칙과 스키마로부터 통합된 뷰를 생성하기 위해 필요한 정보들에 대한 정의를 포함하는 것을 특징으로 한다. 또한, 단일 데이터베이스를 표현하는 지역스키마들에 대해, 통합 뷰를 표현하는 전역스키마의 생성을 위해 XQuery 문법의 일부를 도입하며 데이터 뷰의 표현에 대한 표준 표현법에 대한 정의를 포함하는 것이 바람직하다. 이에 따라, 네트워크 상에 산재하는 다양한 이종 데이터베이스들에 대해 명세언어를 이용하여 통합된 뷰를 작성하고 실시간으로 질의할 수 있는 정보 통합 시스템을 제공할 수 있다. 바이오인포매틱스, 생물정보 데이터베이스, XML 스키마, 생물정보 통합, 랩퍼
Abstract:
본 발명은 인터넷 상에 각기 상이한 위치에 상이한 형태로 분산 저장된 정보 자원으로부터 원하는 정보를 획득하는 통합 뷰를 생성하기 위하여 데이터베이스 스키마를 생성하는 방법 및 정보 통합 시스템에 관한 것이다. 본 발명은 명세언어로 기술된 정보 데이터베이스의 구조 및 내용을 해석하여, 의미적으로 대응되는 스키마를 생성하는 규칙과 스키마로부터 통합된 뷰를 생성하기 위해 필요한 정보들에 대한 정의를 포함하는 것을 특징으로 한다. 또한, 단일 데이터베이스를 표현하는 지역스키마들에 대해, 통합 뷰를 표현하는 전역스키마의 생성을 위해 XQuery 문법의 일부를 도입하며 데이터 뷰의 표현에 대한 표준 표현법에 대한 정의를 포함하는 것이 바람직하다. 이에 따라, 네트워크 상에 산재하는 다양한 이종 데이터베이스들에 대해 명세언어를 이용하여 통합된 뷰를 작성하고 실시간으로 질의할 수 있는 정보 통합 시스템을 제공할 수 있다. 바이오인포매틱스, 생물정보 데이터베이스, XML 스키마, 생물정보 통합, 랩퍼
Abstract:
본 발명은 인터넷을 통해 제공되는 생물 정보 검색 서비스 특성을 고려하여, URI를 사용한 내부(혹은 외부) 생물정보간의 참조 및 자체 생물정보 데이터 베이스에 적용 가능한 유용한 연산들을 수용하여 논리적 필드로 정의하고, 이에 기반한 통합검색을 위해 엑스쿼리 내에서 사용된 논리적 필드를 생물정보의 실제 필드로 사상하고 수행 처리하는 생물 정보 검색 시스템 및 생물 정보 검색 방법에 관한 것이다. 본 발명의 생물 정보 통합 검색 시스템은 다수의 생물 정보 데이터 베이스에 각각 대응하며, 상기 생물 정보 데이터 베이스에 대하여 각각 구축되어 있는 검색/분석 연산 규칙을 이용하여, 사용자 질의에 응답하는 다수의 래퍼; 상기 사용자 질의를 상기 개별 래퍼에서 실행될 수 있도록 하나 이상의 부 질의로 분할하거나, 하나 이상의 부 질의를 생성하는 미디에이터; 및 상기 생물 정보 데이터 베이스에 대응하는 래퍼를 자동으로 생성하는 래퍼 생성부를 포함한다. 생물정보통합, 엑스쿼리, 논리적 필드, 질의 개념화, 바이오 인포매틱스
Abstract:
PURPOSE: A method for analyzing and transforming a dataset of an overlapped structure on a navigation based data model is provided to effectively control a cursor used for providing the successive approach to the dataset satisfying a condition in a storing system securing the reference integrity of an object identifier while residing in a main memory. CONSTITUTION: A data application program(101) carries out a query to a client terminal and the query is transferred to a data server(103) through the Internet. The data server including a cursor(108) approaches to the dataset embedded in the main memory(104) of a system. Thus, the data server receives a query from the data application program and the query is parsed by a query processor(107). The parsed query is analyzed by the data server and the result is transferred to the data application program by extracting from the main memory. In case that the result includes many objects, the result is divisionally transferred through the cursor. The cursor includes a details list(111), a condition valuation part(112), a catalogue(115), a dataset approach part(110) and a dataset extractor(109).
Abstract:
PURPOSE: A method for controlling an extendable hashing directory dividing time of a hash index structure and a method for inserting, deleting and searching an entry using the method are provided to delay a directory separation by using an overflow node being connected to a leaf node. CONSTITUTION: It is decided whether a directory generated as an entry is inserted into an extendable hash at first is "NULL"(S301). If the entry is not "NULL"(S302), new directory is created and an index of a directory made by a bit as much as the directory size is calculated using a hashing function(S303). A bucket being connected to the calculated directory index becomes a home bucket(S304). It is judged whether an overflow bucket exists in the home bucket(S305). If the entry is "NULL"(S302), the above (S303) stage is repeated. If an overflow bucket exists in the home bucket, it is judged whether the last bucket of the overflow bucket being connected by a chain may insert an entry(S306). If the last bucket of the overflow bucket can not insert an entry, new bucket is allocated and connected to the last bucket of the overflow bucket(S307), and the entry is inserted into the last bucket and the process is complected(S308). If an overflow bucket does not exist in the home bucket, it is judged whether the home bucket being connected to the calculated directory index may insert an entry(S309). If the home bucket can insert an entry, an entry is inserted into the home bucket, and the process is completed(S310). If the home bucket can not insert an entry, it is detected whether a local depth is less than a global depth(S311). If a local depth is less than a global depth, two buckets are allocated and the entry in the home bucket is re-hashed(S312), it is decided whether the connected home entry may insert an entry(S313). If the home entry may insert an entry, an entry is inserted into the home bucket(S314), and the process is completed. If the home entry can not insert an entry, new bucket is allocated and an entry is inserted and connected to the home bucket(S315).