Review or Reviews
테크, 개발, AI, 하드웨어 — 실사용 기반 리뷰와 가이드
최신 글
연구자를 위한 AI 어시스턴트 구축기: OpenClaw로 바이오인포매틱스 워크플로우 자동화하기
반복적인 프로테오믹스 분석 작업을 OpenClaw로 자동화하여 연구 효율성을 90% 이상 향상시킨 실제 경험담. DIA-NN 파이프라인 구축부터 바이오마커 데이터베이스 개발까지, 구체적인 구현 과정과 성과를 상세히 공개합니다.
WordPress에서 Next.js로 마이그레이션 — 속도 60배 개선
WordPress 블로그를 Next.js + MDX 기반으로 마이그레이션하면서 TTFB를 2.4초에서 40ms로 줄인 실전 경험을 공유합니다. 데이터 이전, SEO 유지, 리다이렉트 설정까지.
Mac mini 24/7 서버로 쓰기 — 전기세부터 세팅까지
Mac mini M4를 24시간 상시 서버로 운영하면서 알게 된 전기세, 발열, 네트워크 설정, 원격 접속 노하우를 공유합니다. 가성비 홈서버의 정석.
더 보기
Securing Ollama with API Key Authentication Using Caddy Reverse Proxy
Ollama has no built-in authentication. Here's how I secured my public-facing Ollama API with Caddy reverse proxy and X-API-Key header validation — complete with Windows setup, CORS handling, and Vercel integration.
Ollama vs ChatGPT in 2026: Is Running AI Locally Worth It?
Honest comparison between Ollama (local LLM) and ChatGPT/Claude cloud APIs in 2026. Cost analysis, quality benchmarks, privacy, and real-world use cases from someone who uses both daily.
How to Run Qwen 3 (30B) Locally with Ollama on RTX 3090 — Complete Guide
Step-by-step guide to running Qwen 3 30B MoE model locally on an NVIDIA RTX 3090 (24GB VRAM) using Ollama. Includes performance benchmarks, port forwarding setup, and API authentication with Caddy reverse proxy.
Supabase 무료 플랜 생존기 — RLS, 임베딩, Storage 한계 극복
Supabase 무료 플랜에서 RLS 설정 삽질, pgvector 임베딩 구축, 1GB Storage 한계를 자체 파일 서버로 우회한 경험. PGRST116 에러, 타입 캐스팅 문제까지 실전 기록.
Docker 안에 R + Bioconductor 넣기 — 4GB 이미지와의 싸움
Python 백엔드에서 R의 limma, clusterProfiler, fgsea를 호출하기 위해 Docker에 R + Bioconductor를 넣은 과정. rpy2 S4 객체 변환 실패, ContextVar 스레드 에러, 4.13GB 이미지 최적화 삽질기.
RTX 3090으로 Claude 대체하기 — Ollama + Caddy 인증 구축기
Claude API 비용이 부담되어 RTX 3090에 Ollama를 올리고 Caddy reverse proxy로 API 인증까지 구축한 과정. qwen3:30b의 환각 문제와 대응 전략까지 솔직하게 공유한다.