반응형

matplolib.pyplot

matplolib의 pyplot을 이용하여 현재 온도와 습도에 대한 측정 값을 그래프로 나타내는 코드입니다. 

import serial as sr
import matplotlib.pyplot as plt
import numpy as np

s = sr.Serial('COM11', 9600) # 포트, 전송속도
# plt.colse('all')
plt.figure()
plt.ion()
plt.show()


data1 = np.array([])
data2 = np.array([])
i = 0

while True:
    a = s.readline()
    b = s.readline()
    a.decode()
    b.decode()
    a1 = float(a[0:4])
    b1 = float(b[0:4])
    data1 = np.append(data1, a1)
    data2 = np.append(data2, b1)
    plt.cla()

    plt.subplot(121)
    plt.plot(data1)
    plt.title('temperature')

    plt.subplot(122)
    plt.plot(data2)
    plt.title('Humidity')
    plt.pause(0.01)
    i = i+1

여러개의 그래프를 나타낼 때 plt.subplot으로 나누어 사용할 수 있습니다.

 

plt.subplot(row, column, index)

 

반응형
반응형

 개인이나 팀 단위로 프로젝트를 진행 할 때 git을 사용하여 관리를 손쉽게 할 수 있습니다. 다음은 Android Studio에서 Github와 연동을 하는 부분을 포스팅 해보겠습니다.


Git 설치

https://git-scm.com/download/

 

Git - Downloads

Downloads macOS Windows Linux/Unix Older releases are available and the Git source repository is on GitHub. GUI Clients Git comes with built-in GUI tools (git-gui, gitk), but there are several third-party tools for users looking for a platform-specific exp

git-scm.com

Android studio에서 연동할 프로젝트를 생성

File - settings

File - settings

 

Version Control - Git

Version Controll - Git

우측상단의 Test를 누르면 현재 Git version을 확인할 수 있다.

 

Settings - GitHub

Settings - GitHub

+ 버튼을 눌러 "Log In with Token..." 클릭

 

GENERATE 클릭 후 GitHub 로그인

 

Add GitHub Account
GitHub Login

로그인 후 나오는 페이지에서 맨 하단에 Generate token 클릭

 

 

발급받은 토큰을 복사하여 Add GitHub Account 창에 입력 후 ADD ACOUNT 클릭

 

 

계정이 추가 된것을 확인하고, Apply - ok

 

VCS - Enable Version Control Integration

Git으로 변경 후 OK

 

Repository 생성

Git - Manage Remotes...

복사한 Repository 주소를 입력하여 연동

 

우측 상단의 체크표시(Commit) 클릭 

 

 

COMMIT AND PUSH... -> COMMIT ANYWAY AND PUSH... -> PUSH

 

 

GitHub Repository 확인

 

반응형
반응형
  • Intent로 다른 Activity를 실행하고자 할 때 발생하는 오류.
startActivity(intent.addFlags(FLAG_ACTIVITY_NEW_TASK));

상기 코드를 넣어주어 해결.

반응형
반응형

Mediapipe 라이브러리를 사용하기 위한 준비는 앞서 포스트를 참고하시면 됩니다.

(HandTracking을 위한 모듈을 생성하는 부분)

 

https://a070415.tistory.com/entry/OpenCV-Mediapipe%EB%A5%BC-%EC%82%AC%EC%9A%A9%ED%95%98%EC%97%AC-%EA%B5%AC%EA%B8%80-T-rex%EA%B2%8C%EC%9E%84-%EC%A0%9C%EC%96%B4%ED%95%98%EA%B8%B0

 

[OpenCV] Mediapipe를 사용하여 구글 T-rex게임 제어하기

대학생때 Toy Project로 진행하였던, 손가락 위치에 따른 Trex게임 제어를 포스팅 하겠습니다. 해당 프로젝트는 Mediapipe 라이브러리를 사용하여 손을 인식 시키고, 손가락 위치에 따른 키보드 제어를

junn97.com


Volume_circle.py

import math
import cv2
import cvzone
import numpy as np
import HandTrackingModule as htm
# from cvzone.HandTrackingModule import HandDetector
from ctypes import cast, POINTER
from comtypes import CLSCTX_ALL
from pycaw.pycaw import AudioUtilities, IAudioEndpointVolume

cap = cv2.VideoCapture(0)
cap.set(3, 800)
cap.set(4, 600)

detector = htm.handDetector(detectionCon=0.75, maxHands=2)

devices = AudioUtilities.GetSpeakers()
interface = devices.Activate(
    IAudioEndpointVolume._iid_, CLSCTX_ALL, None)
volume = cast(interface, POINTER(IAudioEndpointVolume))
volRange = volume.GetVolumeRange()


minVol = volRange[0]
maxVol = volRange[1]

while True:
    success, img = cap.read()
    img = detector.findHands(img)
    # img = cv2.flip(img, 1)
    cv2.circle(img, (400, 300), 100, (0, 0, 0), 3)
    cv2.circle(img, (400, 300), 95, (255, 255, 255), 3)
    cv2.circle(img, (400, 300), 40, (0, 0, 0), 3)

    lmList = detector.findPosition(img, draw=False)
    if len(lmList) != 0:

        x1, y1 = lmList[4][1], lmList[4][2]
        x2, y2 = lmList[8][1], lmList[8][2]
        x3, y3 = lmList[12][1], lmList[12][2]
        x4, y4 = lmList[16][1], lmList[16][2]
        x5, y5 = lmList[20][1], lmList[20][2]
        p1, p2 = lmList[9][1], lmList[9][2]
        cx, cy = (x1+x2+x3+x4+x5)//5, (y1+y2+y3+y4+y5)//5

        # h1 = math.hypot(p1 - x1, p2 - y1)
        h2 = math.hypot(p1 - x2, p2 - y2)
        # h3 = math.hypot(p1 - x3, p2 - y3)
        # h4 = math.hypot(p1 - x4, p2 - x4)
        # h5 = math.hypot(x5 - p1, y5 - p2)

        # c1 = round(math.acos(p1-x1/h1) * (180 / math.pi))
        c2 = round(math.acos((p1-x2)/h2) * (180 / math.pi))
        # c3 = round(math.acos(p1-x3/h3) * (180 / math.pi))
        # c4 = round(math.acos(p1 - x4/h4) * (180 / math.pi))
        # c5 = round(math.acos(x5/h5) * (180 / math.pi))

        # cc = (c1 + c2 + c3 + c4 + c5) // 5

        print(c2)
        # print(h1, x2, y2)

        # cv2.circle(img, (x1, y1), 15, (255, 255, 255), cv2.FILLED)
        # cv2.circle(img, (x2, y2), 15, (255, 255, 255), cv2.FILLED)
        # cv2.circle(img, (x3, y3), 15, (255, 255, 255), cv2.FILLED)
        # cv2.circle(img, (x4, y4), 15, (255, 255, 255), cv2.FILLED)
        # cv2.circle(img, (x5, y5), 15, (255, 255, 255), cv2.FILLED)
        # cv2.line(img, (x1, y1), (x2, y2), (0, 0, 0), 3)
        # cv2.line(img, (x2, y2), (x3, y3), (0, 0, 0), 3)
        # cv2.line(img, (x3, y3), (x4, y4), (0, 0, 0), 3)
        # cv2.line(img, (x4, y4), (x5, y5), (0, 0, 0), 3)
        # cv2.line(img, (x5, y5), (x1, y1), (0, 0, 0), 3)
        cv2.circle(img, (cx, cy), 15, (255, 0, 0), cv2.FILLED)

        if c2 > 170:
            cv2.circle(img, (cx, cy), 15, (0, 255, 0), cv2.FILLED)
        elif c2 < 90:
            cv2.circle(img, (cx, cy), 15, (0, 0, 255), cv2.FILLED)
        else:
            cv2.circle(img, (cx, cy), 15, (255, 0, 0), cv2.FILLED)

        vol = np.interp(c2, [65, 180], [maxVol, minVol]) # 손의 범위를, 볼륨 범위로 변경해주는 것.
        # print(int(c2), vol)
        volume.SetMasterVolumeLevel(vol, None)

        # if 350 < x2 < 450 and 250 < y2 < 350:
        #     cv2.circle(img, (x2, y2), 15, (0, 255, 0), cv2.FILLED)

    # cvzone.cornerRect(img, (350, 250, 100, 100), 20, rt=0)
    cv2.imshow("Image", img)
    if cv2.waitKey(1) & 0xFF == 27:
        break

각 손가락의 중심점과 LandMark의 위치에 따른 거리에 비례하여 음향을 조절 할 수 있습니다.


결과

Volume_control
Volume_control

반응형

+ Recent posts