사이드 프로젝트47 n8n이란? n8n 시작하기, n8n 설치방법 사실 저는 지독한 귀찮니즘입니다.그래서 "생산성 향상"을 약간 좋아하는데요(?)쉽고 편한 '자동화'에 항상 관심있어 했습니다."효율적"이잖아요. (극강의 효율충 맞음)그러다가 눈여겨보게 된 n8n에 대해서 알아보려고 합니다! n8n이란?일단 n8n, 이름부터 뭔가 이모티콘 같고 귀여웠어요. 거의 코딩 없이 시작 할 수 있는 워크플로우 자동화 도구입니다. Node.js로 구축된 오픈 소스 플랫폼으로, 다양한 서비스들을 연결해서 자동화 파이프라인을 구축할 수 있게 해줍니다.엔팔엔이라고 불리는줄 알았는데, 정식적으로는 엔-에잇-엔 이라고 발음합니다.이름은 'nodemation'이라는 단어에서 유래했어요.'Node' (노드)와 'Automation' (자동화)를 합친 단어로, 창업자인 Jan Oberhauser.. 2025. 10. 2. 티스토리 블로그 게시글 수 위젯 개발! + 잔디/포도 스타일 블로그 적용 방법 티스토리 블로그에서도 깃허브의 잔디처럼 블로그 활동을 기록할수 있는 위젯을 만들어서 배포했다!이번 글에서는 개발 과정에 대한 내용과 실제로 이 위젯을 티스토리 블로그에 적용하기 위한 방법을 안내하는 글을 작성할 예정이다!! 요즘 들어 문서작성의 중요성을 깨닫는다.개발하고 만드는데에서 끝나는게 아니라 이렇게 개발배경부터 과정을 글로 남기고,또 다른 사람들이 사용할수 있도록 사용방법을 안내하는 것까지 개발의 한 과정이지 않을까 싶다. 개발 배경 사실 이 위젯을 만들어보고 싶단 생각은 무려 2021년도에 시작했다..한창 블로그 글을 자주 업로드했는데 그걸 눈으로 시각화해서 보여주고 싶었다.그래서 당시 개발을 진행하기도 했다. 하지만 실패했다. 아무것도 몰랐던 저 당시엔 티스토리 API를 통해서 데이터를.. 2025. 8. 30. 구글 서치콘솔(Search Console) 인덱싱 자동화 툴 개발 + 사용 방법 개발 배경블로그를 하다보면 자연스럽게 구글 SEO전략에 대해서 고민하게 된다.어떻게 하면 내가 발행한 글을 널리 알릴수 있을지!아무리 잘 쓴 글이라도 해도 아무도 읽기 않으면 소용이 없기 때문이다. 그 방법중에 하나가 구글 서치콘솔에 인덱스 생성을 요청하는것이다. 즉, 구글 검색에 등록 하는 작업이다. 이번에 알게 된 사실인데, 정말 유감스럽게도 내가 5년동안 운영한 블로그엔 색인이 거의 되지 않은 상태였다. 그래서 서치콘솔에서 인덱스 생성요청을 자동화 하는 방법 없을까 싶어서 개발을 시작하게 되었다. 자동화 하기 전, 수동으로 인덱스를 생성하는 방식은 이렇다.색인 생성이 필요한 URL에 일일이 하나씩 접속하고, 일일이 색인생성 요청을 해야한다. 그런데 이 작업은 생각보다 하나의 URL에 대해서 약간의.. 2025. 8. 18. Big5기반 직장인 테스트2. 배포 후 Vercel로 도메인 연결하기 vercel로 서비스 배포하고, 이렇게 analytics에 연결해서 사용자수까지 확인하고 있다.몇몇 지인과 친구들한테 테스트겸 알렸더니 이렇게 visitors가 실시간으로 보이는게 신기했었다. 그런데 이제는 조금 더 많은 사용자들에게 이 서비스를 확장하고 싶었다.그러기 위해서는 나의 도메인으로 연결해야했다.그러다보면 이제 구글에 검색이 되도록 할수도 있고, 광고를 붙이기도 할수 있을듯? 도메인이란? 우리는 원래 IP 주소로 이 사이트를 찾아가는데, vercel에서는 사실상 도메인으로 제공해주고 있는것이다.뒤에 이렇게 붙이면서, 이 주소로 나의 웹사이트를 찾아갈수 있게 해주는 것이다. vercel에서도 이렇게 도메인을 사거나 추가할수 있는거 같다! 요기에서 선택! vercel에서 바로 도메인을 구매할.. 2025. 8. 15. Big5기반 직장인 테스트. 기획부터 개발까지 일주일만에 완료! 📌 목차1. 개발 배경 원래 카카오에서 big5 성격검사를 할수 있었다.그런데 문항수가 많아서 검사시간이 길고, 결과가 '죠르디' 캐릭터를 활용해서 성향을 보여준다. big5 검사는 mbti와 다르게 여러가지 성향에 따라서 어디에 가까운지를 알려줘서 좀더 신빙성이 있다고 한다.그리고 카카오의 진단 결과에서 "일할때"에 대한 내용이 있지만 내용이 살짝 빈약하다고 느꼈다. 그래서 직장 생활과 연결된 공감 가능한 캐릭터 결과로 알수 있는 big5 성격검사 테스트를 만들어보기로 했다. 2. 서비스 기획아래와 같은 4가지 질문에 대한 답을 찾아가며 기획을 진행했다. 사실 기능은 단순했다. 다만 그 내용을 설계하는게 힘들었다. 2.1 누구에게?20~30대 직장인. Big5 검사를 알거나 모르는 사람2.2 .. 2025. 8. 8. AI 감사일기 서비스, 기획부터 개발까지4.카카오 OAuth 인증 추가..실패.. 아래 개발 히스토리를 요약하여 결론부터 말하자면, "Error getting user email from external provider"로 인해 카카오 로그인 기능 구현 추가는 실패했다. easynext 를 사용해서 "easynext auth"를 하고, 카카오 연동을 위해 "easynext auth kakao"도 해봤다. 카카오 로그인 기능을 위해선 카카오로부터 카카오계정(이메일)을 제공받아야하는데, 카카오측에 따로 추가 동의항목을 신청해야한다.그럴려면 비즈앱으로 전환하고, 비즈니스 정보 심사까지 필요하다. 기획 굳이 회원가입을 이메일로 인증받아서 해야되나?그냥 간편하게 카카오 로그인 기능은? 개발 Supabase에서 카카오 OAuth 연동도 지원해준대! 카카오 프로필로 정보를 자동으로 연동한다?지금.. 2025. 8. 4. AI 감사일기 서비스, 기획부터 개발까지 3. 서비스 배포 (Vercel) 드디어 마지막이다. 커서 덕분인지 이런 서비스를 기획하고 개발하기까지 불과 3일밖에 걸리지 않았다.이제 이렇게 개발한 서비스를 외부로 배포하는 작업이 남았다.그럼 나 뿐만 아니라 다른 사람들도 이 서비스를 사용할수 있게 된다. Vercel 깃허브 로그인Vercel은 무료 호스팅 사이트이다.간단하게 개발한 프론트엔드 프로젝트를 빌드,배포,호스팅까지 자동화할수 있게 해준다. 특히 깃허브와 연동해서 코드 변경이 발생하면 자동으로 빌드하고 배포까지 되는게 장점이다. https://vercel.com Dashboard – VercelContinue with Google Continue with GitHubContinue with PasskeyShow other options Don't have an account.. 2025. 8. 2. AI 감사일기 서비스, 기획부터 개발까지 2.프론트 백엔드 개발(Cursor AI ,Supabase 연결) 이번엔 본격적으로 커서로 바이브코딩을 하려고 한다.lovable로 만든 간단한 프로토타입을 바탕으로 프론트와 백엔드 디테일을 손보는 것이다.특히 백엔드는 supabase라는 오픈소스 데이터베이스를 사용해서 일기를 저장하고 조회하는 시스템까지 추가했다. 프론트 다듬기 1. 깃허브 프로젝트 커서AI로 가지고 오기2. 커서AI로 디테일 프론트 수정하기 (예쁘게 만들기)추가로 아래 영상을 참고해서 lovable -> github -> cursor로 가지고 와서 진행했다. https://lovable.dev/video/transfer-lovabledev-projects-to-cursor-ai-via-github-integration Transfer Lovable.dev Projects to Cursor AI -.. 2025. 7. 29. AI 감사일기 서비스, 기획부터 개발까지 1. 기획, 프로토타입 개발(Lovable) 최근에 커서를 사용하기 시작했다. 덕분에 평소에 만들어보고 싶었던걸 쉽게 시작할수 있게 되었다.가장 먼저 개발한 첫번째 서비스는 [AI 감사일기]이다! 이번 글에서는 이 서비스를 개발하게된 배경부터 시작해서 서비스를 기획하는 과정을 담아보려고 한다.특히 LLM 서비스이기 때문에 프롬프트를 기획하는 부분도 필요했다.일단 lovable과 superbase까지 연결해서 디자인까지 적용한 프로토타입까지 간단하게 만들어볼수 있었다.1. 개발 배경 1. 노션 템플릿으로 작성하기나는 자기전에 오늘하루 감사했던 일들을 적는 편이다.노션에서 템플릿을 만들어서 매일 같은 형식으로 작성할수 있도록 해두고 노션에 저장한다. 2. 한줄 일기 직접 요약하기이렇게 감사했던 일을 쓰니까 결국 일기가 되었다. 그런데 길면 다시 돌.. 2025. 7. 28. 음악추천챗봇10. S3데이터 PySpark처리 및 시각화 (Zeppelin) 앞에서 구축한 EMR클러스터를 실행한다. 1. Zeppelin에서 s3에 있는 데이터가져오기 load이후에 들어갈 값은 s3의 URI이다. top_tracks 데이터 가져오기 %pyspark from datetime import datetime toptrack_raw = sqlContext.read.format("parquet").load("s3://musicdatalake/top-tracks/dt=2021-08-02/top_tracks.parquet") print(type(toptrack_raw)) toptrack_raw.printSchema() toptrack_df = toptrack_raw.toDF('track_id','artist_id','track_name','popularity','extern.. 2021. 8. 9. 이전 1 2 3 4 5 다음