본문 바로가기

R

R 한글 텍스트 마이닝 (5) : 단어 문서 행렬 │cast_tdm 함수 │텍스트 네트워크 분석 R을 이용한 한글 텍스트 마이닝 다섯 번째 포스팅은 TDM, cast_tdm 함수를 이용한 단어 문서 행렬의 구성 방법에 관한 R 실습 코드와 설명입니다. 마지막에 단어 문서 행렬 구성 후, qgraph 패키지를 이용한 동시출현네트워크분석(co-occurrence network anlysis)까지 설명하고 마무리하겠습니다. 실습할 데이터는 계속 이어서 네이버 큐 보도자료입니다. 해당 데이터는 두번째 포스팅에 올려두었으니, 참고 바랍니다. 또한 아래 포스팅을 참고하여 KoNLP 패키지 먼저 설치해야 R을 이용한 한글 텍스트 마이닝 분석이 가능합니다. R 한글 텍스트 마이닝 분석 (4) : tidygraph와 ggraph │키워드 네트워크 분석 R을 이용한 한글 텍스트 마이닝 분석 다섯 번째 포스팅 주제는 .. 더보기
R 한글 텍스트 마이닝 분석 (4) : tidygraph와 ggraph │키워드 네트워크 분석 R을 이용한 한글 텍스트 마이닝 분석 다섯 번째 포스팅 주제는 tidygraph와 ggraph를 이용한 키워드 네트워크 분석입니다. 이전에 활용한 네이버의 생성형 AI 서비스 큐 보도자료를 계속 인용하겠습니다. 실습할 R 코드는 포스팅 하단에 올려두었습니다. R 한글 텍스트 마이닝 (3) : TF - IDF R을 이용한 한글 텍스트 마이닝 세 번째 포스팅은 TF-IDF입니다. TF-IDF 개념은 이전 포스팅에서도 많이 언급했습니다. 주요 개념은 다음 포스팅 등을 참고하기 바랍니다. 단어 빈도-역문서 빈도 분 e-datanews.tistory.com 1. 패지키 로딩, 작업 폴더 지정, 엑셀 데이터 호출 및 데이터 전처리 분석에 필요한 R 패지키 로드, `setwd` 함수를 이용한 작업 폴더 지정("C:/.. 더보기
R 한글 텍스트 마이닝 (3) : TF - IDF R을 이용한 한글 텍스트 마이닝 세 번째 포스팅은 TF-IDF입니다. TF-IDF 개념은 이전 포스팅에서도 많이 언급했습니다. 주요 개념은 다음 포스팅 등을 참고하기 바랍니다. 단어 빈도-역문서 빈도 분석(TF-IDF) 개념과 계산 방법│ChatGPT의 오류, 영혼 없는 사과 단어빈도-역문서빈도(Term Frequency-Inverse Document Frequency: 이하 TF-IDF) 분석은 전처리와 토큰화 이후 분석할 텍스트 데이터를 탐색하는 가장 기초적인 분석 단계입니다. 이번 포스팅에서는 TF-IDF의 개 e-datanews.tistory.com 또한 분석 예제 파일도 이전 포스팅에서 다루었던 파일을 계속 사용하겠습니다. 앞서 정리했던 주제들은 윈도 11 기준 KoNLP 설치 방법부터 품사분석.. 더보기
R 한글 텍스트 마이닝 분석 (2) │품사 분석과 불용어 추가 전처리 이번 포스팅은 SimplePos09 함수를 이용하여 명사를 추출하고, 추가적인 불용어 처리 방법을 정리합니다. 분석에 활용할 텍스트 데이터 지난 포스팅에서 사용했던 네이버의 생성형 AI 서비스 큐에 대한 보도자료를 계속 이용하겠습니다. R 코드는 포스팅 하단에 업로드해 두었습니다. R 한글 텍스트 마이닝 │네이버 생성형 AI 큐 국내 보도자료 분석│엑셀 데이터 호출 및 빈도분석 지난 포스팅에서 한글 텍스트 마이닝 분석을 위한 KoNLP 설치하는 방법까지 설명하였습니다. 이어서 테스트도 할 겸 엑셀의 텍스트 데이터를 호출하고, 빈도 분석까지 간단히 정리해 보겠습니다. e-datanews.tistory.com 01. 로딩 분석에 필요한 라이브러리를 로딩합니다. 더보기 library(tidyverse) lib.. 더보기
도지코인 │NewsAPI│R과 Voyant-tools 분석 비교 특정 해외 뉴스 키워드(도지코인)를 활용하여 News API에서 텍스트 데이터를 수집한 후, R과 Voyant-tools를 이용하여 분석 결과를 비교합니다. 2개 이상의 URL을 동시 입력한 후, 텍스트 데이터 자동 추출 및 텍스트 마이닝을 실행할 수도 있으니, News API를 이용한 데이터 수집 후, 활용해 보는 것도 좋겠습니다. 도지코인 PPT 자동 생성하는 ChatGPT 기반 TOME AI 서비스 도지코인 같은 특정 키워드를 프롬프트에 입력하는 것만으로 PPT를 자동 생성하는 TOME AI 서비스 사용법을 정리하는 포스팅입니다. 서비스 과금 정책이 이번 달부터 변경되어 다소 아쉽기는 합니 e-datanews.tistory.com 1. NewsAPI, 키워드 활용 해외 뉴스 데이터 수집 News A.. 더보기
ChatGPT API Key │ChatGPT R에서 사용하기 ChatGPT를 R에서 사용하기 위해서는 먼저 API Key를 발급받아야 합니다. 이번 포스팅에서는 ChatGPT API Key 발급부터 R에서 ChatGPT 이용 방법을 정리합니다. 실습영상 하단에 실행코드도 함께 업로드해 둘 테니 참고 바랍니다. ChatGPT가 처음인 분들은 다음 포스팅을 참고하여 사용 등록 먼저 하기 바랍니다. ChatGPT 사용 후기│티스토리 글쓰기 정보 수집 2023년 첫 번째 블로그는 1주일 간 사용해 본 ChatGPT 후기입니다. 작년 12월 1일 ChatGPT이 첫 공개된 후, 다양한 활용 사례가 공유되고 있는데요. 이번 포스팅에서는 ChatGPT을 활용한 티스토리 같은 블 e-datanews.tistory.com 그 외 ChatGPT 활용 사례들이 궁금한 분들은 다음 포.. 더보기
R 활용│dta 파일 csv로 변환하는 R Code R 활용│dta 파일 csv로 변환하는 R Code stata로 작업한 파일(확장자, dta)을 R로 호출한 후, csv파일로 저장하는 R Code 공유합니다. 줄곧 SAS를 사용하다가 R로 넘어온 경우라, STATA 확장자가 dta인지 오늘 처음 알았습니다. 구글링해보니 dta 확장자를 csv 확장자로 변경하는 R Code가 있네요. stata로 작업하는 분들과 협업할 때, 필요할 것 같아 포스팅해둡니다. library(haven) 파일명 = read_dta("경로지정/파일명.dta") # 저장된 dta파일 경로지정 write.csv(파일명, file = "파일명.csv") # 문서폴더로 csv 파일저장됨 더보기