@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

無名の人がSNSやブログを書く場合
2024.05.25
おはようございます、無名の人がSNSやブログを書く場合、フォロワーさんやリピーターが一定以上付くまでは情報の配信に注力したほうが良いとのことを先日とあるYOUTUBEである方が話されていました.
一定以上ユーザーさんが付いた時点で意見交換のステップに進み、影響力が出てきたら日記などの投稿をして良いとのこと、またフォロワーさんやリピーターさんを付けるには一人ひとりのユーザーに寄り添うということが大事で何を欲しっているかなどを考えて情報発信すると良いというような内容でした.
ちなみにその方が言うにはSNSだと一万人のフォロワーさんが付くまでは情報発信とユーザーさんへの対応に力を入れていたとのこと、例えばいいねをしてくれた人には必ずいいね返しをするなどの対応を取っていたとの事でした.日々の積み重ねが一万人以上のフォロワーさんを獲得できる方法だという.
なぜ一万人以上のフォロワーさんが付くまで自分の意見などを述べなかったかは、無名の人がSNSで意見を述べても影響力がないからという事.
これらを完璧にコピペ実践することはないと思うけれども、有益な情報発信は大事になると思います.特に誰もが知らない話を届けるのは大事になりそうでした.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
SNS, youtube, いいね, コピペ, ステップ, フォロワーさん, ユーザー, リピーター, リピーターさん, 一人ひとり, 一定以上, 影響力, 意見, 意見交換, 日々, 日記, 時点, 注力, 無名, 配信,

[…Sakura].forEeach((hanabira)=>{});
2023.04.02
おはようございます。これが投稿されている頃には桜が散っている頃かも知れません。さくらの花はぱっと咲いてぱっと散るというイメージです、人生も同じようなもので100年時代だと言われているけれど、100年もあっという間なんだと思います。何年生きれば十分生きたと思うのだろうか?
老いるともう生きるのは十分だと思うかも知れませんが、今の若さであと何十年も生きるような社会になれば考えが変わるじゃないかなって思います。老いが病になってしまった時、人は進んで老い選択するのだろうか?。恐らく一部の人しか選択せず殆どの人は遺伝子編集技術で若さを手に入れることだろうと考えている。
遺伝子治療が世の中に取り入れられると障害という言葉がなくなる。目が見えない耳が聞こえないや知能が低いなどの問題すら、遺伝子治療で解決する。生まれる前に遺伝子治療で障害は取り除くことが出来るようになった今日。次のステップは障害になった時に遺伝子治療で障害を取り除くことではないだろうかと。恐らくAIの恩恵で遺伝子治療など技術革新も飛躍的に伸びていくだろうとそう思うと、老いも克服、障害の克服も可能になる未来が案外すぐ近くまで来ている気がします。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
AI, Instagram, taoka_toshiaki, taoka-toshiaki, あっという間, さくら, ステップ, 世, 低い, 克服, 恩恵, 技術革新, 桜, 殆ど, 病, 知能, 耳, 遺伝子治療, 遺伝子編集技術, 障害,

phpバージョン対応、例えばPHP7系からPHP8へ😳 #php #Linux
2022.12.09
おはようございます、AIによる記事作成が出来るようになっているみたいですね、ChatGPTという奴です😱、大量生産出来る時代になると大変やな。
さて、今日はphpバージョン対応のお話を書きます、この記事は先日、Tweetをした事を文書化という感じですね、phpバージョン対応を行いたい場合、巷ではこのような記事が多く出回っていると思いますが、実際、そんな事をしなくてもRed Hat系の場合は、この3ステップを行いPHPをインストールすれば良いじゃないのかなってこの頃思いました。
ステップ1から時系列でコマンドを記載しますね。
yum install https://rpms.remirepo.net/enterprise/remi-release-8.rpm
yum module list php
yum module switch-to php:8.2
こんな感じにコマンド、打てばPHPインストール設定が変わります。PHPモジュールの切り替え後に、下記のコマンドを打てばインストール可能です。そんな感じで簡単に切り替えが出来ます。
yum install php
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
インストール, インストール設定, お話, コマンド, ステップ, バージョン対応, モジュール, 下記, 大量生産出来る時代, 実際, 巷, 感じ, 文書化, 時系列, 記事, 記事作成,

映画とゲームの二本立て。
2021.03.10
映画、ステップをネトフリで観ました。この映画をこの映画のタイトル名の意味するところが中盤でわかるのですが、その後の展開も良かったなと思います。でも最初のところでうるっと来ました。そう最初の幼稚園の先生の語り部分でなんか泣けた。
sifuというゲーム、このゲームはツイッターでつぶやいた通り、誰かがプレイしているのを横で見ていたいなという感覚のゲームです。なぜなら、自分は格闘ゲームなど手先の器用さが必要なゲームはとことん駄目なんです。だから横でプレイしているのをみたいなという想いのほうが強いですね。出来たら楽しいゲームかなと思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
sifu, ゲーム, ステップ, タイトル, ツイッター, ところ, ネトフリ, プレイ, 中盤, 二本立て, 先生, 器用, 展開, 幼稚, 後, 必要, 意味, 感覚, 手先, 映画, 最初, 格闘, 横, 自分, 誰か, 通り, 部分, 駄目,
死守せよ、だが軽やかに手放せ
2020.07.11
過去の記事を全消しに近いぐらい消して記事を再構築しました?。
自分も含めピーター・ブルックの言葉『死守せよ、だが軽やかに手放せ』を送ります。皆さん、必死だから見えなくなるですよ。自分を傍観しましょうよという話です。
必死にしがみついていると見なくなったりします。例えば職場でここしかないと思って働いていると、その環境が劣悪な環境だったとしても、ここしかないと思い必死に働いてしまいます。そういう事はよく有ることだと。
なので、一度、俯瞰的に見る目を持つことが大事になると思います、そして自分をステップアップ出来る環境に移りたいと思ったら、いきなり辞めるのではなく転職先が決まってから辞めることをお勧めします。それまではスキルアップの時間を日々の時間に取り入れることをお勧めします。
また転職先が決まってから、次の日から転職先で働くのではなくお休みや有給休暇を消化して次の職へ移ることをお勧めします、何故なら社会人になると中々、自由な時間が取れなくなるものです、なので自分にご褒美を与えてください、そうすることにより次の職場で頑張るぞという気持ちがより一層芽生えます。
あと、万が一のために貯蓄は絶対です。無職でも2、3年生活できる資金は持っておくと心に余裕もできます、なので、そういう事を考えた上で「死守せよ、だが軽やかに手放せ/Hold on tightly, let go lightly」という事を実行しましょう。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
6, com, https, oihnM, watch, wixB-, www, youtube, アップ, お休み, お勧め, ここ, こと, スキル, ステップ, それまで, ピーター, ブルック, 一度, 事, 俯瞰, 傍観, 全消し, 大事, 必死, 日, 日々, 時間, 構築, 次, 死守, 環境, 皆さん, 目, 職場, 自分, 言葉, 記事, 話, 転職, 過去,
無職あまり響きが良くないよな。
2019.11.21
今日から無職です。
早くお仕事に就きたいです、前職を何故辞めたかについては
ブログで書くこともないかなと思います。
IT業界の人々は退社したことをブログなどで書かれていますが
本当に良い会社なら辞めずに働いていることが多いじゃないかな。
ステップアップのため辞める人も結構増えてきていますが・・・。
この一ヶ月で4社受けて、2社面接まで進みました。
1社は人工知能の会社です、こちら仕事内容が違っていたので
何となく面談でその流れになり辞退のようなものになりました。
今日、1社、面接を受けてきました、どう判断するかは未知数です。
もし不採用だったら2,3社受けてそれでも駄目だったら
今後プログラミングは趣味兼副業として行うつもりです。
正直なところ、高知県で働きたいIT会社ってあまりないのが現状、
そして高知県のIT会社は4割はブラックです。
現状を知っているので受けたくないのです・・・。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, 2, 3, 4, IT, アップ, お仕事, こちら, こと, ステップ, それ, ため, つもり, ところ, ブラック, ブログ, プログラミング, もの, 一, 人, 人々, 人工, 今後, 今日, 仕事, 会社, 兼, 内容, 判断, 前職, 副業, 採用, 未知数, 本当, 業界, 正直, 無職, 現状, 知能, 趣味, 辞退, 退社, 面接, 面談, 駄目, 高知県,
若い時の苦労は買ってでもしろじゃなく旅をしろ?
2017.05.31
若い時の苦労は買ってでもしろじゃなく旅をしろ?
自分がタイムスリップして高校生に戻って自分にアドバイスする事が
出来たとするなら、「勉強をしろ」と「旅をしろ」のような気がします。
勉強は当然、未来への選択枠が増えるので
絶対していたほうが良いのです、もう一つの何故「旅をしろ」なのか、
自分の場合、学生時代に県外へ遊びに行くとかいう事をしたことが
なかったのですね。学生時代に「大阪や岡山」に遊びに行っていたら
もっと就職活動ときなどに考え方が変わった気がします。
地元も良いけど、県外も良いかなという考え方がおそらく出来てた、
出来るか出来ないかは、学生時代の体験などが強いと感じます。
なので、若い時の苦労は買ってでもしろじゃなく旅をしろなんです。
県外の旅が出来たら、海外の旅へステップアップするのも良いかもしれませんね。
学生時代は難しいかもしれませんが、二十歳過ぎるとプチ旅貯金して
海外へ旅行するのも良いかなと思います。
ちなみに自分はまだ海外渡航経験がないのです(T_T)。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
B01MRY24CF, ステップ, もう一つ, 二十歳, 勉強, 学生時代, 就職活動とき, 旅, 海外渡航経験, 県外, 考え方, 若い時, 苦労, 遊び, 選択枠, 集英社女性誌eBOOKS, 高校生,
基本情報技術者試験に申し込みを行いました( ゚д゚ )。
2016.02.02
基本情報技術者試験に申し込みを行いました( ゚д゚ )。
受けて受かるぞ==!!
受けて合格しても達成感だけだと思いますが
それでも今回は試験会場に足を運ぼうと思っています。
ちなみにITパスポートが合格した時は
なんだか呆気無かったですが・・・
今回はまだ、参考書を手にとってパラパラめくっている
段階なので今の段階で合格できそうとはいえないけど
合格します!!と宣言だけしときます。
今年を最後の試験にしてステップアップした国家試験を
受けたいのでなんとか合格したいと思っています。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
ITパスポート, イメージ, クレバー方式, ステップ, 参考書, 国家試験, 基本情報技術者教室, 基本情報技術者試験, 宣言, 平成28年度, 情報処理技術者試験, 最後, 栢木先生, 段階, 申し込み, 試験会場, 達成感,