일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Kaikas
- jquery
- Remix
- polygon
- netfunnel
- 회고
- exceljs
- 오블완
- WSL
- React
- Laravel
- node
- 티스토리챌린지
- chatGPT
- metamask
- Ai
- huggingface
- docker
- CSS
- 블록체인
- nginx
- PM2
- 배포
- nft
- Python
- threejs
- miniconda
- 라라벨
- AWS
- NextJS
- Today
- Total
목록전체 글 (173)
박주니 개발 정리

설명전) wsl 설치가 완료되었다는 가정하에 설명하겠습니다. 1. Window PowerShell 관리자에서 wsl 접속합니다. 2. 시스템 패키지 업데이트합니다. sudo apt update && sudo apt upgrade -y 3. Redis 설치합니다. sudo apt install redis-server -y 4. Redis 실행합니다. sudo service redis-server start 5. Redis 정상 작동 테스트합니다. redis-cli127.0.0.1:6379> pingPONG 6. 개발 환경에서 redis를 설치합니다. pip install redis 7. redis 적용 파일에 import하고 연결합니다. import redis # Redis 연결redis_conn = ..

1. Redis를 설치합니다. sudo yum update -ysudo yum install gcc jemalloc-devel -ycurl -O http://download.redis.io/redis-stable.tar.gztar xzvf redis-stable.tar.gzcd redis-stablemakesudo make install2. redis.conf 파일을 엽니다. sudo nano redis.conf추가 설명)1번에서 redis-stable로 접속되어있기 때문에 ls로 파일구성을 확인하시면 바로 redis.conf가 보입니다. 3. redis.conf 구성중에 bind 및 protected-mode를 확인합니다. 추가설명)내부 redis 위주일경우 : bind 127.0.0.1, prote..

설명전)먼저 Ollama 설치되어있어야합니다.https://junhee6773.tistory.com/entry/Allama-%EC%84%A4%EC%B9%98-%EB%B0%A9%EB%B2%95 Allama 설치 방법1. allama 사이트에 접속해서 Download를 클릭합니다. https://ollama.com/ OllamaGet up and running with large language models.ollama.com2. 운영체제에 맞게 Download 합니다. 3. 다운로드 폴더에서 OllamaSetup.exe를 실행합니junhee6773.tistory.com 해당 모델은 8b, 70b 있는데 본인 로컬 환경 메모리가 최소 51GB이상이 된다면 70b를 다운로드 시도할 수 있고 그게 아니라면 8b..

1. allama 사이트에 접속해서 Download를 클릭합니다. https://ollama.com/ OllamaGet up and running with large language models.ollama.com2. 운영체제에 맞게 Download 합니다. 3. 다운로드 폴더에서 OllamaSetup.exe를 실행합니다. 4. 윈도우 환경이란 PowerShell 에서 version을 확인합니다. ollama --version

시작전 준비)1. Hugging Face Token 준비https://junhee6773.tistory.com/entry/Hugging-Face-Token%EA%B0%92-%EA%B0%80%EC%A0%B8%EC%98%A4%EA%B8%B0 Hugging Face Token값 가져오기1. Hugging Face을 로그인하고 Access Tokens를 클릭합니다. https://huggingface.co/ Hugging Face – The AI community building the future.The Home of Machine Learning Create, discover and collaborate on ML better. We provide paid Compute and Entjunhee6773.ti..

설명전)AWS에서 인스턴스 유형을 통해 현재 인스턴스에 설정한 유형에 vCPU를 확인합니다. 저는 t3.small로 설정했습니다. Gunicorn 공식문서https://docs.gunicorn.org/en/stable/settings.html#workers공식으로 확인했을때는 t3.small 기준으로 Worker : vCPU * 2 threads : 각 Woker 4개 즉 t3.small은 동시 접속이 가능한 요청 수는 16개여야 하는데 여기서 메모리가 2GiB밖에 되지 않기 때문에 부담되지 않는 선은 Worker 2~3개입니다. AWS는 티어에 따라 CPU랑 메모리가 정해져있기때문에 만약에 저렴한 비용으로 이부분을 개선하고 싶으시면Oracle에서는 CPU, 메모리를 각각 설정이 가능하기 때문에 오..

시작전 준비)1. Hugging Face Token 준비https://junhee6773.tistory.com/entry/Hugging-Face-Token%EA%B0%92-%EA%B0%80%EC%A0%B8%EC%98%A4%EA%B8%B0 Hugging Face Token값 가져오기1. Hugging Face을 로그인하고 Access Tokens를 클릭합니다. https://huggingface.co/ Hugging Face – The AI community building the future.The Home of Machine Learning Create, discover and collaborate on ML better. We provide paid Compute and Entjunhee6773.ti..

1. Hugging Face에서 Access Token을 가지고 옵니다. https://junhee6773.tistory.com/entry/Hugging-Face-Token%EA%B0%92-%EA%B0%80%EC%A0%B8%EC%98%A4%EA%B8%B02. Hugging Face에서 pyannote/segmentation, pyannote/speaker-diariztion 을 사용 권한을 받습니다. 3. python 코드를 넣습니다. from huggingface_hub import loginfrom pyannote.audio.pipelines import SpeakerDiarizationfrom pyannote.audio.core.io import Audioimport osfrom dotenv imp..