smms 를 활용한 중장비 예지 정비 효과에 대한 연구 논문을 정리 SMMS(스마트 유지보수 관리 시스템)를 활용한 중장비 예지 정비에 대한 최신 연구 논문과 관련 효과, 기술적 배경, 실제 현장 적용 사례를 정리하면 아래와 같습니다[1][2][3][4][5]. 주요 최신 논문 및 연구 자료 정리 논문 제목 발행연도 연구 배경 연구 목적 연구 방법 연구 결과 연구의 기여 Predictive Maintenance in Industry 4.0: A Systematic Multi-sector Review 2024 산업 4.0 시대, 스마트 유지보수 도입 확대 중장비 포함 제조·건설·물류분야 예지정비 실효성 체계적 검토 문헌 리뷰, 현장 사례 분석 사전고장 예측 정확도 개선, 비용/생산성 이점 증명 AI·IoT 기반 PdM의 산업 적용 가이드라인 제공[2] Systematic Review of Predictive Maintenance Practices 2025 다양한 제조 산업에서 PdM 적용 현황 분석 최신 예지정비 기술의 효과 및 사례 파악 PRISMA 프레임워크로 문헌 리뷰 설비 다운타임 감소, 운용 효율 향상, 신뢰도 증가 향후 PdM 기술 도입 전략 제안[1] AI-Enabled Predictive Maintenance in Heavy Equipment Market 2025 AI·IoT 기반 중장비 시장 변화 예지정비가 중장비 운영에 미치는 영향 분석 AI/ML 모델 적용사례, 현장 성능 검증 장비수명 연장, 돌발정지 감소, 유지비 절감 산업별 AI 예지정비 도입 성공요인·시장 전망 분석[4] Enhancing Heavy Equipment Maintenance with Artificial Intelligence 2023 중장비 예지정비 영역의 AI 활용 초기 도전 CBM(조건기반 정비)와 AI 연계 효과 실험 센서 데이터, 머신러닝, 현장 실험 진동·온도·압력 데이터로 고장 예측 정확도 상승 실질적인 CBM+AI 설계, 운용 가이드 제공[5] SMMS 기반 ...
공유 링크 만들기
Facebook
X
Pinterest
이메일
기타 앱
[Docker] 자주 사용하는 "docker ps" 명령어 정리
공유 링크 만들기
Facebook
X
Pinterest
이메일
기타 앱
-
도커(Docker)는 컨테이너 기반의 오픈소스 가상화 플랫폼입니다.
도커 명령어를 사용하여 이미지를 관리하고 컨테이너를 생성, 실행, 중지, 삭제할 수 있습니다. 아래는 도커 명령어중에 자주 사용하는 명령어들입니다.
Docker 변경 사항을 적용하고 상태를 파악하는데 " docker ps [options]" 가 필요합니다. 관련 명령어를 살펴 봅니다.
[Docker] Docker ps 명령어 정리
docker ps 명령어
1. docker ps -a or --all:
설명: 중지된 컨테이너를 포함하여 모든 컨테이너를 표시합니다.
$ docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
9fc210c3afc1 portainer/portainer "/portainer" 11 minutes ago Exited (2) 6 minutes ago portainer
8b2a4df7113f openproject/community:13 "./docker/prod/entry…" 2 months ago Exited (137) 2 months ago cranky_yalow
0c9b3f2ad626 openproject/community:13 "./docker/prod/entry…" 2 months ago Exited (255) 2 months ago 5432/tcp, 0.0.0.0:8080->80/tcp, :::8080->80/tcp condescending_lalande
a2c250403dc6 openproject/community:13 "./docker/prod/entry…" 2 months ago Exited (255) 2 months ago 5432/tcp, 0.0.0.0:8080->80/tcp, :::8080->80/tcp great_antonelli
fb0943de3011 openproject/community:13 "./docker/prod/entry…" 2 months ago Exited (255) 2 months ago 5432/tcp, 0.0.0.0:8080->80/tcp, :::8080->80/tcp eager_wozniak
2. docker ps -q or --quiet:
설명: 컨테이너 ID만 표시합니다.
# docker ps -q
b450537d3a7e
3. docker ps --filter:
설명: 특정 조건에 따라 컨테이너를 필터링합니다. 여러 조건을 사용할 수 있습니다.
# -- "portainer" 라는 컨테이너 명으로 찾습니다.# docker ps --filter "status=running" --filter "name=portainer"
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
b450537d3a7e portainer/portainer "/portainer" 5 hours ago Up 5 hours 8000/tcp, 9443/tcp, 0.0.0.0:9000->9000/tcp portainer
4. docker ps -s or --size:
설명: 컨테이너의 디스크 사용량을 표시합니다.
# docker ps -s
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES SIZE
b450537d3a7e portainer/portainer "/portainer" 5 hours ago Up 5 hours 8000/tcp, 9443/tcp, 0.0.0.0:9000->9000/tcp portainer 0B (virtual 287MB)
5. docker ps --last[=숫자]:
설명: 지정된 숫자만큼의 최근에 실행된 컨테이너만 표시합니다.
# 최근 변경된 2개의 컨테이너를 출력 합니다. (변경된 건이 1개만 있어서 1개만 노출되었습니다.)#docker ps --last 2
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
b450537d3a7e portainer/portainer "/portainer" 5 hours ago Up 5 hours 8000/tcp, 9443/tcp, 0.0.0.0:9000->9000/tcp portainer
6. docker ps --format :
설명: 출력 형식을 지정합니다. Go 템플릿을 사용하여 출력을 조정할 수 있습니다.
docker ps --format 명령어는 출력 형식을 지정하여 원하는 컬럼을 표시합니다. 각 컨테이너에 대해 ID(ID), 이미지(Image), 상태(Status), 그리고 이름(Names)을 표시하고 탭으로 구분된 테이블 형식으로 출력합니다.
# 1.-- Table 형식으로 출력# docker ps --format "table"
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
b450537d3a7e portainer/portainer "/portainer" 4 hours ago Up 4 hours 8000/tcp, 9443/tcp, 0.0.0.0:9000->9000/tcp, :::9000->9000/tcp portainer
# 2.-- Table 형식으로 일부 필드를 출력# docker ps --format "table {{field}}... "# docker ps --format "table {{.Names}}\t{{.ID}}\t{{.Image}}\t{{.Status}}"
NAMES CONTAINER ID IMAGE STATUS
portainer b450537d3a7e portainer/portainer Up 4 hours
# docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Image}}\t{{.Ports}}"
NAMES STATUS IMAGE PORTS
portainer Up 4 hours portainer/portainer 8000/tcp, 9443/tcp, 0.0.0.0:9000->9000/tcp, :::9000->9000/tcp
KrakenD의 설정 파일인 `krakend.json`은 KrakenD API Gateway의 동작을 정의하는 중요한 파일입니다. 이 파일의 구조와 주요 요소를 설명해 드릴게요. ### krakend.json 파일의 기본 구조 ```json { "$schema": "https://www.krakend.io/schema/v2.7/krakend.json", "version": 3, "endpoints": [], "extra_config": {} } ``` - **$schema**: 선택 사항으로, IDE 통합을 통해 자동 완성 및 문서를 사용할 수 있게 합니다. - **version**: 필수 항목으로, 설정 파일 형식의 버전을 나타냅니다. 현재 버전은 3입니다. - **endpoints**: API 게이트웨이가 제공하는 엔드포인트와 관련된 백엔드 및 설정을 정의하는 배열입니다. - **extra_config**: Lura 프로젝트의 핵심 기능이 아닌 서비스 구성 요소의 설정을 저장합니다². ### 엔드포인트 설정 엔드포인트는 게이트웨이가 사용자에게 제공하는 URL을 정의합니다. 각 엔드포인트는 최소 하나 이상의 백엔드를 선언해야 합니다. ```json { "endpoints": [ { "endpoint": "/v1/foo-bar", "backend": [ { "url_pattern": "/foo", "host": ["https://my.foo-api.com"] }, { ...
Linux - Rsyncd 설치와 selinux 문제 해결법 (Centos8) #Rsyncd #Selinux #firewall-cmd #setsebool -P rsync_full_access 1 1. Rsyncd 설치와 selinux 문제 해결법 Centos8에 Rsync 를 설치하는데 아래와 같은 에러를 만났다. 예전 같이 Sellinux를 disabled 하면 바로 해결 되는 문제 이지만 이제는 sellinux 를 잘 사용하는 것도 중요한 것으로 보여 진다. 그 동안 우리는 보통 Selinux 가 disable 된 환경을 많이 사용해 왔기에 이런 에러를 해결하기 어려웠다. 일반적인 rsync 명령을 아래와 같이 실행했는데 rsync 명령은 에러가 발생되고 있을때 해결 방안이다. # 작동이 안되는 명령 $ rsync -ar --progress -n node2::WEB_APP /svc/web_app rsync: failed to connect to node2.im.com (192.168.56.104): No route to host (113) # 작동이 되는 명령 $ rsync -ar --progress -n node2:/svc/web_app /svc/web_app 아래와 같이 tail -f /var/log/message 에 다음과 같은 에러를 본다면 해결 방안이다. "Feb 23 07:04:46 node2 platform-python[8168]: SELinux is preventing /usr/bin/rsync from read access on the directory web_app. #012#012***** Plugin rsync_data (37.5 confidence) suggests ************************ #012#012If web_app should be shared via the RSYNC daemon ...
#chatGPT- hallucination #chatGPT_환각방지 #chatGPT_응답품질 #GPT_응답검증 #GPT_응답품질점검 #OpenAI환각 chatGPT 환각(Hallucination) 개선을 위한 응답 품질 점검 - Check outputs 인공지능의 환각 환각은 AI가 잘못된 데이터를 학습하거나 오류로 인해 도출한 결과를 믿을 수 없게 만든다는 것입니다. GPT의 창의적인 답변으로 원하는 결과를 전달하지 못하는 것으로 모델의 환각은 사실이 아닌것을 사실처럼 꾸며내는 것입니다. OpenAI의 응답 품질과 환각을 방지하기 위해서 형성된 모델의 결과를 검증해 보는 것이 중요합니다. 따라서 오픈AI는 주어진 쿼리에 대한 최종 답변에 보상하는 ‘결과 감독(outcome supervision)’ 대신 각각의 추론 단계별 답변에 보상하는 ‘과정 감독(process supervision)’ 방식으로 LLM을 훈련하는 것에 대하여 알아 보고자 합니다. 1. OpenAI 기본 소스를 작성 합니다. 1. 응답을 위한 기본 환경을 설정합니다. import openai openai.api_key = "{YOUR_API_KEY}" #* temperature=0 -> 1 클수록 응답의 창의성이 커집니다. def get_completion_from_messages ( messages, model= "gpt-3.5-turbo" , temperature= 0 , max_tokens= 500 ): response = openai.ChatCompletion.create( model=model, messages=messages, temperature=temperature, ...
댓글
댓글 쓰기